最近羊仔忙著研究一些新的AI工具,其中一個就是Ollama,可能有些朋友還不太熟悉它,這是一款能讓你在本地運行各種大模型的神器。 無論你使用的是PC、Mac,還是小巧玲瓏的樹莓派,Ollama都能完美適配,真的很方便。 今天就和大家聊聊如何利用Ollama在本地輕松運行大模型,并使用現代化的UI界面和大模型聊天。 好了,廢話不多說,進入正題啦! 1 初識Ollama 首先,要使用Ollama,你需要先安裝它,這部分其實非常簡單,就像羊仔那天坐在電腦前吃著薯片,幾分鐘搞定一樣。
安裝過程不復雜,和其他軟件一樣,幾下點擊就搞定了。 安裝完成后,打開cmd終端,輸入命令`ollama run 模型名稱`即可運行,比如:
這個命令會自動下載并配置對應的大模型文件,非常省心。 如果你對有哪些模型可以使用不太清楚,可以去Ollama官網看看,每種模型都有詳細介紹和版本選擇。 一般來說,7B的模型需要至少8G內存,13B需要16G內存,33B需要32G內存。 一定要根據自己的硬件配置來選擇,否則運行時有可能會很卡。 2 Open WebUI:大模型伴侶 在默認設置下,你需要在終端中和大模型進行交互,雖然這是個不錯的選擇,但看著一長串代碼和黑色背景,實在有些沉悶。 如果你也覺得如此,不妨試試Open WebUI,這個工具可以給你帶來更現代化的操作體驗。 安裝Docker,這是一個虛擬容器工具,簡單來講,Docker就像一個萬能的小盒子,把所有環境依賴都裝到一個盒子里,運行起來特別方便。 訪問Docker官網: https://www./products/docker-desktop 下載對應操作系統的Docker安裝包并安裝。 安裝好Docker后,在終端執行Open WebUI的安裝命令:
不出意外的話幾分鐘后,你就能在本地瀏覽器上打開一個簡潔友好的Web界面,這下再也不用面對黑乎乎的終端了。 3 打造本地知識庫 Open WebUI不僅能讓你和大模型輕松互動,還支持RAG(Retrieval-Augmented Generation)能力,這意味著你可以讓大模型參考網頁和文檔內容。 如果你想讓大模型讀取某個網頁的內容,只需在鏈接前加上“#”。例如提示詞:“讀取這個網頁的內容,#https://”。 如果你要讀取文檔內容,可以直接在對話框中導入文件,或者到Documents頁面上傳。 這樣一來,所有文檔都能成為大模型的參考資料,大大提升工作的效率和效果。 在對話框中輸入“#”,會顯示出所有已導入的文檔,你可以選擇其中一個或者多個,甚至可以讓大模型參考所有的文檔。 無論是工作上的文檔管理還是個人知識儲備,這個功能相當于打造了一個高效的本地知識庫。 零基礎如何學習AI大模型領取方式在文末 為什么要學習大模型?學習大模型課程的重要性在于它能夠極大地促進個人在人工智能領域的專業發展。大模型技術,如自然語言處理和圖像識別,正在推動著人工智能的新發展階段。通過學習大模型課程,可以掌握設計和實現基于大模型的應用系統所需的基本原理和技術,從而提升自己在數據處理、分析和決策制定方面的能力。此外,大模型技術在多個行業中的應用日益增加,掌握這一技術將有助于提高就業競爭力,并為未來的創新創業提供堅實的基礎。 大模型典型應用場景①AI+教育:智能教學助手和自動評分系統使個性化教育成為可能。通過AI分析學生的學習數據,提供量身定制的學習方案,提高學習效果。 學習資料領取如果你對大模型感興趣,可以看看我整合并且整理成了一份AI大模型資料包,需要的小伙伴文末免費領取哦,無償分享!!! 部分資料展示一、 AI大模型學習路線圖整個學習分為7個階段 二、AI大模型實戰案例涵蓋AI大模型的理論研究、技術實現、行業應用等多個方面。無論您是科研人員、工程師,還是對AI大模型感興趣的愛好者,皆可用。
三、視頻和書籍PDF合集從入門到進階這里都有,跟著老師學習事半功倍。
四、LLM面試題
五、AI產品經理面試題
|
|