作為一個程序員,我每天都要和各種大模型打交道,偶爾還得靠AI救場。但最近用網頁版AI的體驗屬實一言難盡——“服務器繁忙,請稍后再試”這句話我都快背下來了。就這,還指望AI提高生產力?搞笑呢。 所以,我決定自己動手,把DeepSeek模型部署到本地!這篇文章就是一個保姆級教程,手把手教你怎么把DeepSeek搬回家,告別排隊,暢享本地推理的快樂。 準備工作為了讓大家少走彎路,我已經把所有軟件資源打包整理到網盤里,直接下載就好,省得滿世界找了。 網盤地址:https://pan./s/4e3a3843a943 本教程以 Windows系統 為例,Mac和Linux用戶也可以參考,原理是一樣的。 第一步:安裝OllamaDeepSeek模型不能直接跑,得靠 Ollama 這個工具。它的作用類似一個AI引擎,專門用來跑大模型的。 安裝步驟
第二步:安裝DeepSeek模型Ollama裝好后,我們就可以安裝DeepSeek模型了。 選擇合適的模型DeepSeek有好幾個版本,選錯了可是要后悔的:
建議大家選7B,性能和硬件要求比較平衡。 安裝方法
等命令行窗口里顯示“success”字樣,說明安裝成功! 第三步:安裝ChatBox客戶端(可選)如果你覺得命令行太麻煩,想要個圖形界面,那可以裝 ChatBox。 安裝步驟
API密鑰:填“ollama run deepseek-r1:7b”。 API域名:保持默認。 選擇模型:填“7B”。 ![]() 第四步:安裝瀏覽器插件(可選)不想裝ChatBox?還有更簡單的方法——用 瀏覽器插件。 安裝方法
到這里,DeepSeek的本地部署就搞定了!你可以用:
本地運行的好處是什么?
雖然DeepSeek對硬件有一定要求,但 7B模型大部分電腦都能跑,不至于吃土升級硬件。 搞定之后,我的第一反應就是:“這玩意兒真香!” 你們呢?快去試試吧! |
|