最近一年文章更新基本沒有什么收益,今天開始每篇文章后面會給大家掛幾個小游戲,大家看完文章記得玩兩把再退出去,感謝!同時文中也有一些視頻廣告,大家也幫忙點開看看,看看即可,不必深度參與。 ??本教程所用到的軟件包+deepseek使用技巧資源包獲取方式: 一、部署Ollama(多平臺選擇安裝)Ollama 支持 Linux/macOS/Windows,需根據系統選擇安裝方式。 1. Linux 系統部署適用系統:Ubuntu/Debian/CentOS 等 步驟: 一鍵安裝: curl -fsSL https:///install.sh | sh
權限配置(避免 sudo 運行): sudo usermod -aG ollama $USER # 將當前用戶加入ollama組 newgrp ollama # 刷新用戶組
啟動服務: systemctl start ollama # 啟動服務 systemctl enable ollama # 開機自啟
驗證安裝: ollama --version # 輸出版本號即成功
2. macOS 系統部署步驟: 一鍵安裝: curl -fsSL https:///install.sh | sh
啟動服務: 或通過 Launchd 后臺服務: brew services start ollama # 通過Homebrew管理
3. Windows 系統部署前置要求: Windows 10/11 64位 已安裝 WSL2(推薦Ubuntu發行版)
步驟: 下載安裝包:Ollama Windows Installer 下載后進行雙擊安裝 驗證安裝:
??如何配置遠程 Ollama 服務?默認情況下,Ollama 服務僅在本地運行,不對外提供服務。要使 Ollama 服務能夠對外提供服務,你需要設置以下兩個環境變量: 如果 Ollama 作為 systemd 服務運行,應使用 systemctl 設置環境變量: [Service] Environment="OLLAMA_HOST=0.0.0.0" Environment="OLLAMA_ORIGINS=*"
systemctl daemon-reload systemctl restart ollama
二、拉取并運行DeepSeek模型官方模型庫參考:Ollama DeepSeek-R1 頁面 1. 拉取模型ollama pull deepseek-r1 # 官方推薦模型名稱
模型規格選項(按需選擇): ollama pull deepseek-r1:7b # 7B參數基礎版 ollama pull deepseek-r1:33b # 33B參數進階版(需更高顯存)
2. 運行模型驗證交互: >>> 你好,請用中文回答 你好!我是DeepSeek-R1,很高興為您提供幫助!
三、不同硬件場景配置說明根據硬件資源選擇運行模式: 場景1:純CPU運行適用情況:無獨立顯卡或顯存不足 配置優化: 限制線程數(避免資源耗盡): OLLAMA_NUM_THREADS=4 ollama run deepseek-r1 # 限制4線程
使用量化模型(減少內存占用): ollama pull deepseek-r1:7b-q4_0 # 4-bit量化版
內存要求: 7B模型:至少8GB空閑內存 33B模型:至少32GB空閑內存
場景2:CPU+GPU混合運行適用情況:有NVIDIA顯卡(需CUDA支持) 配置步驟: 安裝驅動: 啟用GPU加速: ollama run deepseek-r1 --gpu # 強制使用GPU
顯存要求: 7B模型:至少6GB顯存 33B模型:至少20GB顯存
性能監控:
四、AI問答應用接入本地大模型方式1:部署MaxKB并接入Ollama1. 通過Docker部署MaxKBdocker run -d \ --name=maxkb \ -p 8080:8080 \ -v ~/maxkb_data:/var/lib/postgresql/data \ 1panel/maxkb:latest
2. 配置Ollama模型接入進入MaxKB控制臺:模型管理 > 添加模型 填寫參數:
3. 創建應用并測試問答功能方式2:本地安裝chatBox AI并接入本地大模型1、下載安裝包訪問 GitHub Releases 頁面:ChatBox Releases!ChatBox Releases頁面 選擇 Windows 版本:
2、安裝 ChatBox運行安裝程序:
3、基礎配置3.1. 連接 本地模型確保 Ollama 服務已運行。 在 ChatBox 設置中選擇 **ollama api**,填寫:
3.2 可以自定義界面3.3 驗證使用 五、常用的故障排查方法1. Ollama服務無法啟動日志查看: journalctl -u ollama -f # Linux
端口沖突:修改Ollama端口: OLLAMA_HOST=0.0.0.0:11435 ollama serve # 指定新端口
2. 模型加載失敗重新初始化: ollama rm deepseek-r1 && ollama pull deepseek-r1
3. MaxKB連接超時檢查網絡: curl http://ollama-ip:11434 # 確認Ollama API可達
跨域問題:在Ollama啟動時添加: OLLAMA_ORIGINS="*" ollama serve
六、性能優化建議七、AI服務器性能監控我使用zabbix+grafana對服務器做了資源使用情況的監控,因為我的服務器沒有GPU,全部使用CPU去跑,當我運行大模型的時候,可以看到服務器資源站喲比較高(目前我測試用的的Deepseek-r1:7b) 最近一年文章更新基本沒有什么收益,今天開始每篇文章后面會給大家掛幾個小游戲,大家看完文章記得玩兩把再退出去,感謝!同時文中也有一些視頻廣告,大家也幫忙點開看看,看看即可,不必深度參與。
|