久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
    分享

    白嫖deepseek本地部署教程,轉發+收藏送deepseek使用技巧

     IT軟件推薦員 2025-02-03 發布于云南
    最近一年文章更新基本沒有什么收益,今天開始每篇文章后面會給大家掛幾個小游戲,大家看完文章記得玩兩把再退出去,感謝!同時文中也有一些視頻廣告,大家也幫忙點開看看,看看即可,不必深度參與。

     

    ??

    本教程所用到的軟件包+deepseek使用技巧資源包獲取方式: 

     

    一、部署Ollama(多平臺選擇安裝)

    Ollama 支持 Linux/macOS/Windows,需根據系統選擇安裝方式。 

    1. Linux 系統部署

    適用系統:Ubuntu/Debian/CentOS 等  

    步驟: 

    1. 一鍵安裝

      curl -fsSL https:///install.sh | sh
    2. 權限配置(避免 sudo 運行):

      sudo usermod -aG ollama $USER  # 將當前用戶加入ollama組
      newgrp ollama                  # 刷新用戶組
    3. 啟動服務

      systemctl start ollama         # 啟動服務
      systemctl enable ollama        # 開機自啟
    4. 驗證安裝

      ollama --version               # 輸出版本號即成功

    2. macOS 系統部署

    步驟: 

    1. 一鍵安裝

      curl -fsSL https:///install.sh | sh
    2. 啟動服務

      ollama serve                   # 前臺運行(調試用)
      • 或通過 Launchd 后臺服務:

        brew services start ollama  # 通過Homebrew管理

     

    3. Windows 系統部署

    前置要求:  

    • Windows 10/11 64位

    • 已安裝 WSL2(推薦Ubuntu發行版)

     

    步驟: 

    1. 下載安裝包Ollama Windows Installer

    2. 下載后進行雙擊安裝

    3. 驗證安裝

      ollama list                    # 查看已安裝模型

     

    ??

    如何配置遠程 Ollama 服務?

    默認情況下,Ollama 服務僅在本地運行,不對外提供服務。要使 Ollama 服務能夠對外提供服務,你需要設置以下兩個環境變量: 

    如果 Ollama 作為 systemd 服務運行,應使用 systemctl 設置環境變量: 

    • 調用 systemctl edit ollama.service 編輯 systemd 服務配置。這將打開一個編輯器。

    • 在 [Service] 部分下為每個環境變量添加一行 Environment:

    [Service]
    Environment="OLLAMA_HOST=0.0.0.0"
    Environment="OLLAMA_ORIGINS=*"
    • 重新加載 systemd 并重啟 Ollama:

    systemctl daemon-reload
    systemctl restart ollama

    二、拉取并運行DeepSeek模型

    官方模型庫參考Ollama DeepSeek-R1 頁面 

    1. 拉取模型

    ollama pull deepseek-r1          # 官方推薦模型名稱
    • 模型規格選項(按需選擇):

      ollama pull deepseek-r1:7b     # 7B參數基礎版
      ollama pull deepseek-r1:33b    # 33B參數進階版(需更高顯存)

    2. 運行模型

    ollama run deepseek-r1

    驗證交互: 

    >>> 你好,請用中文回答
    你好!我是DeepSeek-R1,很高興為您提供幫助!

     

    三、不同硬件場景配置說明

    根據硬件資源選擇運行模式: 

    場景1:純CPU運行

    適用情況:無獨立顯卡或顯存不足  

    配置優化: 

    1. 限制線程數(避免資源耗盡):

      OLLAMA_NUM_THREADS=4 ollama run deepseek-r1  # 限制4線程
    2. 使用量化模型(減少內存占用):

      ollama pull deepseek-r1:7b-q4_0             # 4-bit量化版
    3. 內存要求

      • 7B模型:至少8GB空閑內存

      • 33B模型:至少32GB空閑內存

     

    場景2:CPU+GPU混合運行

    適用情況:有NVIDIA顯卡(需CUDA支持)  

    配置步驟: 

    1. 安裝驅動

      • 安裝 NVIDIA驅動 和 CUDA Toolkit 12.x

    2. 啟用GPU加速

      ollama run deepseek-r1 --gpu              # 強制使用GPU
    3. 顯存要求

      • 7B模型:至少6GB顯存

      • 33B模型:至少20GB顯存

    4. 性能監控

      nvidia-smi               # 查看GPU利用率

     

    四、AI問答應用接入本地大模型

    方式1:部署MaxKB并接入Ollama

    1. 通過Docker部署MaxKB
    docker run -d \
      --name=maxkb \
      -p 8080:8080 \
      -v ~/maxkb_data:/var/lib/postgresql/data \
      1panel/maxkb:latest
    • 訪問 http://localhost:8080,默認賬號密碼 admin/MaxKB@123..

     

    2. 配置Ollama模型接入
    1. 進入MaxKB控制臺模型管理 > 添加模型

    2. 填寫參數

      • 模型類型:Ollama

      • 模型名稱DeepSeek-r1

      • Base URLhttp://ollama主機ip:11434(Docker內訪問宿主機)

      • 模型名稱deepseek-r1(與Ollama拉取的模型名一致)

    3. 創建應用并測試問答功能

    方式2:本地安裝chatBox AI并接入本地大模型

    1、下載安裝包
    1. 訪問 GitHub Releases 頁面ChatBox Releases!ChatBox Releases頁面

    2. 選擇 Windows 版本

    2、安裝 ChatBox
    1. 運行安裝程序

      • 雙擊下載的 .exe 文件,按提示完成安裝。

    3、基礎配置
    3.1. 連接 本地模型
    1. 確保 Ollama 服務已運行。

    2. 在 ChatBox 設置中選擇 **ollama api**,填寫:

      • API Endpointhttp://localhost:11434

      • API Key: 留空

      • Model Namedeepseek-r1(與 Ollama 模型名稱一致)

    3.2 可以自定義界面
    3.3 驗證使用

     

    五、常用的故障排查方法

    1. Ollama服務無法啟動

    • 日志查看

      journalctl -u ollama -f   # Linux
    • 端口沖突:修改Ollama端口:

      OLLAMA_HOST=0.0.0.0:11435 ollama serve  # 指定新端口

     

    2. 模型加載失敗

    • 重新初始化

      ollama rm deepseek-r1 && ollama pull deepseek-r1

     

    3. MaxKB連接超時

    • 檢查網絡

      curl http://ollama-ip:11434  # 確認Ollama API可達
    • 跨域問題:在Ollama啟動時添加:

      OLLAMA_ORIGINS="*" ollama serve

     

     

    六、性能優化建議

    場景推薦配置
    CPU模式使用
    GPU模式啟用

    七、AI服務器性能監控

    我使用zabbix+grafana對服務器做了資源使用情況的監控,因為我的服務器沒有GPU,全部使用CPU去跑,當我運行大模型的時候,可以看到服務器資源站喲比較高(目前我測試用的的Deepseek-r1:7b) 

     

    最近一年文章更新基本沒有什么收益,今天開始每篇文章后面會給大家掛幾個小游戲大家看完文章記得玩兩把再退出去,感謝!同時文中也有一些視頻廣告大家也幫忙點開看看,看看即可,不必深度參與

      轉藏 分享 獻花(0

      0條評論

      發表

      請遵守用戶 評論公約

      類似文章 更多

      主站蜘蛛池模板: 亚洲高清揄拍自拍| 久久97精品久久久久久久不卡| 内射女校花一区二区三区 | 久久99国内精品自在现线| 无码AV岛国片在线播放| 午夜成年男人免费网站| 精品熟女少妇AV免费观看| 国产精品成人中文字幕| 国产福利高颜值在线观看| 一本一道av中文字幕无码| 99RE6热在线精品视频观看| 特级毛片A级毛片免费观看网站| 重口SM一区二区三区视频| 欧美老熟妇XB水多毛多| 亚洲 日本 欧洲 欧美 视频| 亚洲午夜久久久久久久久电影网| 一卡2卡三卡4卡免费网站| 后入内射国产一区二区| 97在线精品视频免费| 亚洲大尺度无码专区尤物| 免费人成黄页在线观看国产| 亚洲日本韩国欧美云霸高清| 国产成人精品久久| 亚洲欧美中文日韩V在线观看| 中文字幕av无码不卡| 中文字幕亚洲一区二区三区| 国产永久免费高清在线| 国产老妇伦国产熟女老妇高清| 国产乱码一区二区三区免费| 亚洲av成人免费在线| 国产精品久久久久无码AV| FC2免费人成在线视频| 国产午夜亚洲精品福利| 国产精品亚洲LV粉色| 久久久久久久波多野结衣高潮| 亚洲偷自拍国综合| 色欲香天天天综合网站无码| 久久99精品久久久久久齐齐| 高清自拍亚洲精品二区| 99精品国产中文字幕| 在线观看免费人成视频播放|