1、Ollama 簡介
Ollama 是一個開源的本地化大模型部署工具,旨在簡化大型語言模型(LLM)的安裝、運行和管理。它支持多種模型架構,并提供與 OpenAI 兼容的 API 接口,適合開發者和企業快速搭建私有化 AI 服務。
Ollama 的主要特點包括:
- 輕量化部署:支持在本地設備上運行模型,無需依賴云端服務。
- 多模型支持:兼容多種開源模型,如 LLaMA、DeepSeek 等。
- 高效管理:提供命令行工具,方便用戶下載、加載和切換模型。
- 跨平臺支持:支持 Windows、macOS 和 Linux 系統。
2、DeepSeek-R1 簡介
DeepSeek-R1 是由深度求索(DeepSeek)公司開發的高性能 AI 推理模型,專注于數學、代碼和自然語言推理任務。其核心優勢包括:
- 強化學習驅動:通過強化學習技術顯著提升推理能力,僅需少量標注數據即可高效訓練。
- 長鏈推理(CoT):支持多步驟邏輯推理,能夠逐步分解復雜問題并解決。
- 模型蒸餾:支持將推理能力遷移到更小型的模型中,適合資源有限的場景。
- 開源生態:遵循 MIT 開源協議,允許用戶自由使用、修改和商用。
DeepSeek-R1 在多個基準測試中表現優異,性能對標 OpenAI 的 o1 正式版,同時具有更高的性價比。
3、使用 Ollama 部署 DeepSeek-R1
3.1、安裝 Ollama
下載 Ollama: 訪問 Ollama 官網,根據操作系統(Windows、macOS 或 Linux)下載安裝包,并按照說明進行安裝。
驗證安裝:在終端中運行以下命令驗證安裝:
ollama --version
如果安裝成功,命令行會顯示 Ollama 的版本信息。
admin@Mac-miniM4 ~ % ollama --version
ollama version is 0.5.7
3.2、下載 DeepSeek-R1 模型
Ollama已支持DeepSeek-R1, 模型地址:deepseek-r1 。
下載模型:
根據自己的顯存選擇對應的模型,macmini m4 16g 可流暢支持 7b。
使用以下命令下載 DeepSeek-R1 模型:
ollama pull deepseek-r1:1.5b
查看模型信息:
下載完成后,可以使用以下命令查看模型信息:
ollama list
該命令會顯示已下載的模型列表,包括名稱、大小和路徑等。
運行 DeepSeek-R1:
使用以下命令啟動 DeepSeek-R1 模型:
ollama run deepseek-r1:1.5b
該命令會啟動 DeepSeek-R1 模型,并啟動一個 REPL(交互式終端),你可以在這里輸入問題,模型會根據問題生成回答。
admin@Mac-miniM4 ~ % ollama run deepseek-r1:1.5b
>>> 你好,介紹一下你自己
<think>
您好!我是由中國的深度求索(DeepSeek)公司開發的智能助手DeepSeek-R1。如您有任何任何問題,我會盡我所
能為您提供幫助。
</think>
您好!我是由中國的深度求索(DeepSeek)公司開發的智能助手DeepSeek-R1。如您有任何任何問題,我會盡我所
能為您提供幫助。
4、部署 Open-WebUI 增強交互體驗
Ollama與Open WebUI結合,可以提供更豐富的交互體驗。 可選擇任意支持Ollama的webUI,如 AnythingLLM、Dify、Open-WebUI 等。
- AnythingLLM:更專注于文檔知識庫與問答場景,自帶向量檢索管理,可“多文檔整合”,接入 Ollama 后實現本地化問答。
- Dify:功能多元,適合對話流管理、插件化擴展、團隊協同等復雜需求。只要能在其后臺正確配置 Ollama 地址,即可靈活調用。
- Open-WebUI:定位純聊天界面,支持多模型集成,你可以把它當做一個能“輕松切換模型、馬上對話”的 Web 面板,如果只是想單純體驗 Ollama 的生成效果,Open-WebUI 是最方便的。
本文場景比較簡單,選擇與Ollama結合比較緊密的open-webui。
- Open-WebUI:https://github.com/open-webui/open-webui
- 官方文檔:https://docs.openwebui.com/getting-started/quick-start/
下載 Open-WebUI:
本地使用 docker 部署Open-WebUI,使用以下命令下載 Open-WebUI:
docker pull ghcr.io/open-webui/open-webui:main
啟動 Open-WebUI:
// 創建本地目錄,避免重啟后數據丟失
mkdir /Users/admin/program/docker/instance/open-webui/data
cd /Users/admin/program/docker/instance/open-webui
// 啟動容器
docker run -d -p 3000:8080 -v $PWD/data:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
啟動成功后,可在終端中查看容器狀態,通過瀏覽器訪問Open-WebUI:http://localhost:3000
配置 Ollama 地址:
瀏覽器進入 Open-WebUI 后,點擊右上角的設置圖標 進入設置頁面。在“模型”選項卡中,點擊“添加模型”,選擇“Ollama”,并輸入 Ollama 的地址(默認為 http://localhost:11434)。
測試功能:
在 Open-WebUI 中,你可以選擇使用 Ollama 的不同模型,新建對話并體驗不同的功能。例如:
- 智能客服:輸入“如何安裝Ollama?”。
- 內容創作:輸入“為DeepSeek寫一篇入門指南”。
- 編程輔助:輸入“用 Java 實現快速排序”。
- 教育輔助:輸入“解釋牛頓第二定律”。