內容提要
我們點“Download”下載: 接下來會自動匹配你的操作系統,如果沒有問題,點擊下載鏈接下載安裝文件(我的電腦是WINDOWS操作系統,系統要求Win10以上,安裝文件有745M): 2、下載一個Chrome插件:Page Assist,這是一個可以在瀏覽器里運行本地AI模型的插件,Edge瀏覽器也適用,插件地址:
安裝1、雙擊下載好的安裝文件,OllamaSetup.exe。 2、安裝好以后它會自動運行,在任務欄我們可以看到:
1.5B Qwen DeepSeek R1
7B Qwen DeepSeek R1
8B Llama DeepSeek R1
14B Qwen DeepSeek R1
32B Qwen DeepSeek R1
70B Llama DeepSeek R1
使用1、在命令行直接輸入對話: 2、關閉對話后,如果要重新運行,同樣地,我們輸入以下命令,不過,這次它不會再去拉取模型了:
3、在瀏覽器中運行,點擊插件,選擇模型: 我們點擊右邊的“設置”,選擇RAG設置,選擇文本嵌入模型,其他的暫時不動,記得保存: 我們試一下,問一個推理問題:昨天的明天是哪天? 回答正確,速度也很快!不過有點遺憾的是,我再問它同樣的問題的時候,它就回答錯了。可能是參數較小的關系,我在它官方網站上連續兩次提問:
它都準確地回答是“今天”。 寫在最后1、本地部署成功,但是運行速度有時候有點卡,這跟電腦配置有關系。 2、除非是沒有任何網絡,我覺得本地模型的意義不是很大,一則電腦硬件實在有限,運行速度慢,二則模型的參數量太小,精度不高,功能有限。我后來又下載了一個7B的模型,運行速度就慢得很,差點死機。 3、如果把數據安全保密放在第一位的,我們選擇本地模型沒毛病,特別是要使用專門的知識庫進行訓練的。這時候我們應該考慮提升電腦硬件配置啦。 今天就到這里,我們下期再會! |
|