以下是?DeepSeek 本地部署詳細教程,涵蓋 Windows 和 Mac 系統,基于 Ollama 工具實現快速部署,支持離線使用和數據隱私保護:
一、部署前準備
- 硬件要求
- 顯卡:推薦 8GB 顯存以上(如 RTX 3060、AMD RX 6600),CPU 部署需 16GB 內存(速度較慢)。
- 存儲:預留 20GB 以上空間(模型文件較大)。
- 系統:Windows 10/11(64 位)或 macOS(Intel/M 系列芯片)。
- 模型選擇
- DeepSeek-R1:專注邏輯推理與實時問題解決,參數規模 671 億,支持多任務處理。
- 版本推薦:
1.5b:適合低配電腦(2GB 顯存)。7b:平衡性能與資源占用(8GB 顯存)。14b/32b:高端設備推薦(16GB+ 顯存)。
二、Windows 系統部署步驟
1. 安裝 Ollama
- 下載:訪問?Ollama 官網,選擇 Windows 版本下載安裝包。
- 安裝:雙擊運行,按提示完成安裝,桌面出現?Ollama 圖標(小羊駝)即表示成功。
- 環境變量設置(可選):
- 在 D 盤新建文件夾?
OllamaAI,右鍵“此電腦”→“屬性”→“高級系統設置”→“環境變量”。 - 新建系統變量:
- 變量名:
OLLAMA_MODELS - 變量值:
D:\OllamaAI
- 變量名:
- 重啟電腦生效(避免模型默認下載到 C 盤)。
- 在 D 盤新建文件夾?
2. 下載 DeepSeek 模型
- 打開命令提示符(CMD):按?
Win + R,輸入?cmd?回車。 - 輸入下載命令:
ollama run deepseek-r1:7b # 示例:下載 7B 參數版本 - 其他版本替換?
7b?為?1.5b、14b?等。 - 下載時間取決于網速和模型大?。s 10-30 分鐘)。
- 其他版本替換?
3. 運行模型
- 命令行交互:下載完成后,直接在 CMD 輸入:
ollama run deepseek-r1:7b - 輸入問題后回車,模型會實時生成回答。
- 退出:輸入?
/exit?或按?Ctrl + C?終止。
4. 進階:搭建 Web 界面(可選)
- 安裝 Docker:訪問?Docker 官網?下載并安裝。
- 下載 Open-WebUI:
git clone https://github.com/open-webui/open-webui.git cd open-webui - 運行 Web 服務:
docker compose up -d - 瀏覽器訪問?
http://localhost:8080,選擇已部署的 DeepSeek 模型即可使用圖形界面。
- 瀏覽器訪問?
三、Mac 系統部署步驟
1. 安裝 Ollama
- 下載:訪問?Ollama 官網,選擇 macOS 版本(Intel 或 M 系列芯片)。
- 安裝:雙擊?
.pkg?文件,按提示完成安裝。 - 驗證:打開“終端”,輸入?
ollama,出現幫助信息即表示成功。

2. 下載 DeepSeek 模型
- 終端命令:
ollama run deepseek-r1:7b # 示例:下載 7B 參數版本 - 其他版本替換?
7b?為?1.5b、14b?等。
- 其他版本替換?
3. 運行模型
- 終端交互:下載完成后,直接在終端輸入:
ollama run deepseek-r1:7b - 輸入問題后回車,模型會實時生成回答。
- 退出:輸入?
/exit?或按?Ctrl + C?終止。
四、模型管理與優化
- 查看已安裝模型:
ollama list - 刪除模型:
ollama rm deepseek-r1:7b # 替換為實際模型名 - 停止運行:
ollama stop
五、常見問題解決
- 下載失敗:
- 檢查網絡連接,或使用國內鏡像源(如魔搭社區)。
- 確保命令拼寫正確(如?
deepseek-r1?而非?deepseek)。
- 顯存不足:
- 降低模型參數(如從?
14b?切換到?7b)。 - 關閉其他占用顯存的程序。
- 降低模型參數(如從?
- 命令行不熟悉:
- 直接使用?DeepSeek 官方 App?或網頁版(官網鏈接),無需部署。
六、適用場景推薦
- 本地部署優勢:
- 數據安全:敏感信息不離本地,避免泄露。
- 離線使用:無網絡環境下仍可運行。
- 高頻任務:降低 API 調用成本(如企業級應用)。
- 個性化定制:調整模型參數或微調數據。
- 云端使用推薦:
- 日常輕量級任務(如簡單問答)。
- 設備性能不足時(如舊電腦或手機)。
域名頻道IDC知識庫