|
DeepSeek 本地部署全攻略:保姆級(jí)教程DeepSeek 本地部署全攻略:保姆級(jí)教程 大家好,很久沒有發(fā)文寫一些技術(shù)相關(guān)或是知識(shí)普及的文章了,隨著2024的結(jié)束,迎來全新的2025deepseek在春節(jié)期間爆火。我也想蹭著熱度還在通過自己個(gè)人了解還有網(wǎng)絡(luò)上一些現(xiàn)有的信息資源給大家說下自己本地怎么部署deepseek。 (注:因平臺(tái)規(guī)范問題本文中所有www,http,https,com等全部用xxxx替代) 本文將詳細(xì)介紹如何在本地部署 DeepSeek 模型,并以圖文的形式把操作步驟展示出來,確保即使是初學(xué)者也能輕松上手。我們將從環(huán)境準(zhǔn)備、安裝依賴、模型下載到運(yùn)行模型的每一步進(jìn)行詳細(xì)講解。 一、本地部署的適用場(chǎng)景 ![]() 本地部署適合以下情況: 電腦配置較高,有獨(dú)立顯卡:本地部署需要較強(qiáng)的硬件支持,尤其是GPU需求。 有私密數(shù)據(jù)需要處理,擔(dān)心泄密:本地部署可以避免數(shù)據(jù)上傳到云端,確保數(shù)據(jù)安全。 需要與本地工作交流結(jié)合:處理高頻任務(wù)或復(fù)雜任務(wù)時(shí),本地部署可以提供更高的靈活性和效率。 日常使用量大,調(diào)用 API 需要收費(fèi):本地部署可以節(jié)省 API 調(diào)用的費(fèi)用。 想要在開源模型基礎(chǔ)上做個(gè)性化定制:本地部署允許你對(duì)模型進(jìn)行二次開發(fā)和定制。 總結(jié):有錢有技術(shù) + 怕泄密 → 本地部署 沒錢沒技術(shù) + 圖省事 → 直接使用網(wǎng)頁(yè)/APP 二、本地部署的基本步驟 1. 環(huán)境準(zhǔn)備:確保你的系統(tǒng)滿足以下要求 操作系統(tǒng):Linux(推薦 Ubuntu 20.04 或更高版本)或 Windows。 Python:3.8 或更高版本。 GPU:支持 CUDA 的 NVIDIA GPU(推薦16GB 顯存以上)。 CUDA:11.2 或更高版本。 CUDNN:8.1 或更高版本。 Linux擇按照我編輯的跟著操作就行,Windows根據(jù)自己的電腦類型,選擇不同版本。 蘋果電腦選最左邊(藍(lán)色框),Windows系統(tǒng)選最右邊(紅色框),之后點(diǎn)擊下載(綠色框)。 ![]() 2. 安裝依賴 首先,安裝必要的依賴項(xiàng): sudo apt-get update sudo apt-get install -y python3-pip python3-dev python3-venv git 3. 創(chuàng)建虛擬環(huán)境 為了避免依賴沖突,建議在虛擬環(huán)境中操作: python3 -m venv deepseek-env source deepseek-env/bin/activate 4. 安裝 PyTorch 根據(jù)你的 CUDA 版本安裝 PyTorch。例如,CUDA 11.2 的安裝命令如下: pip install torch torchvision torchaudio --extra-index-url xxx://download.pytorch.org/whl/cu112 5. 克隆 DeepSeek 倉(cāng)庫(kù) 從 GitHub 克隆 DeepSeek 的代碼庫(kù): git clone xxxx://github.xxx/deepseek-ai/deepseek.git cd deepseek 6. 安裝項(xiàng)目依賴 安裝項(xiàng)目所需的 Python 依賴: pip install -r requirements.txt 7. 下載預(yù)訓(xùn)練模型 下載 DeepSeek 的預(yù)訓(xùn)練模型權(quán)重,并將其放置在 models/ 目錄下。你可以從guan方提供的鏈接下載,或使用以下命令(假設(shè)模型權(quán)重已上傳到某個(gè)服務(wù)器): wget xxxx://example.xxx/path/to/deepseek_model.pth -O models/deepseek_model.pth 8. 配置環(huán)境變量 設(shè)置必要的環(huán)境變量,例如模型路徑和 GPU 設(shè)備號(hào): export MODEL_PATH=models/deepseek_model.pth export CUDA_VISIBLE_DEVICES=0 9. 運(yùn)行模型 使用以下命令啟動(dòng)模型推理或訓(xùn)練: python run.py --model_path $MODEL_PATH --input "你的輸入文本" 10. 測(cè)試模型 你可以通過提供輸入文本來測(cè)試模型的輸出: python run.py --model_path $MODEL_PATH --input "你好,DeepSeek!" 11. 訓(xùn)練模型(可選) 如果你想從頭訓(xùn)練或微調(diào)模型,可以使用以下命令: python train.py --model_path $MODEL_PATH --data_path path/to/your/data 12. 部署模型(可選) 你可以將模型部署為 API 服務(wù),使用 Flask 或 FastAPI 等框架: pip install fastapi uvicorn uvicorn api:app --reload 13. 訪問 API 如果部署成功,你可以通過 xxx://localhost:8000 訪問 API,并通過 POST 請(qǐng)求發(fā)送輸入文本。 使用 Ollama 進(jìn)行本地部署(簡(jiǎn)化版)Windows系統(tǒng) 如果你覺得上述步驟過于復(fù)雜,可以使用 Ollama 來簡(jiǎn)化本地部署過程。Ollama 是一個(gè)用于管理 AI 模型的工具,特別適合初學(xué)者。 1. 安裝 Ollama ![]() 打開瀏覽器,搜索 Ollama,進(jìn)入guan網(wǎng)。 點(diǎn)擊 Download,根據(jù)你的操作系統(tǒng)選擇對(duì)應(yīng)的版本(Windows、macOS 或 Linux)。 下載并安裝 Ollama。安裝完成后,桌面會(huì)出現(xiàn)一個(gè)羊駝圖標(biāo)。 ![]() 特別說明:最好安裝在C盤,安裝在其它盤,需要重新配置環(huán)境變量。 2. 選擇并安裝模型 打開 Ollama guan網(wǎng),點(diǎn)擊右上角的 Models。 選擇 deepseek-r1 模型,并根據(jù)你的電腦性能選擇合適的參數(shù)版本(如 1.5b、7b、14b 等)。 ![]() ![]() 復(fù)制安裝命令,例如: ollama run deepseek-r1:1.5b 打開命令行(Windows 用戶按 Win + R,輸入 cmd),粘貼并運(yùn)行上述命令。模型將自動(dòng)下載并安裝。 ![]() ![]() 點(diǎn)擊鍵盤上的“Enter”鍵,模型會(huì)自動(dòng)下載。 ![]() 3. 與模型對(duì)話 安裝完成后,你可以直接在命令行中與模型對(duì)話: ollama run deepseek-r1:1.5b 輸入你的問題,模型會(huì)立即給出回答。 ![]() 此時(shí)大模型安裝在你的電腦上,就算斷網(wǎng)也可以繼續(xù)用,也不用擔(dān)心數(shù)據(jù)泄露。 后續(xù)運(yùn)行模型操作注意事項(xiàng): 當(dāng)你關(guān)閉電腦后,下次再打開ollama。會(huì)發(fā)現(xiàn)點(diǎn)擊ollama的圖標(biāo),電腦沒反應(yīng)。 因?yàn)槟泓c(diǎn)擊圖標(biāo),只是啟動(dòng)了ollama,想要和大模型聊天,還是需要打開命令行。 繼續(xù)通過命令行和大模型聊天: 同時(shí)按下鍵盤上的Win和R鍵,在彈出的窗口里輸入cmd,點(diǎn)擊確定打開命令行。在命令行界面,輸入剛剛的命令“ollama run deepseek-r1:1.5b”。因?yàn)槟阒耙呀?jīng)下載過,這次無需下載,可以直接和模型聊天。 ![]() 四、安裝 Open-WebUI(可選) Open-WebUI 可以為 Ollama 提供一個(gè)更友好的圖形界面,但安裝過程較為復(fù)雜,適合有一定技術(shù)基礎(chǔ)的用戶 (只是讓交互界面更好看,可以不必安裝) 這里就給大家簡(jiǎn)單的演示講解下: 1. 安裝 Docker 打開瀏覽器,搜索 Docker,進(jìn)入guan網(wǎng),根據(jù)你的電腦系統(tǒng)下載并安裝 Docker 桌面版。 ![]() ![]() 安裝完成后,需要重新啟動(dòng)電腦,才能正常使用docker。重新啟動(dòng)后,如果你的桌面上出現(xiàn)了docker的圖標(biāo),就表示安裝成功了。 ![]() 2. 安裝 Open-WebUI 打開命令行,輸入以下命令安裝 Open-WebUI:(linux系統(tǒng)) docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 安裝完成后,打開瀏覽器,訪問 xxx://localhost:3000,注冊(cè)一個(gè)賬號(hào)并登錄。 在界面左上角選擇你的模型,即可開始對(duì)話。 Windows:瀏覽器搜索Open-WebUI,進(jìn)入guan網(wǎng),并復(fù)制紅框中的命令。 ![]() 按照上面提到的步驟,打開命令行,輸入復(fù)制的命令,等待安裝完成。 運(yùn)行Open-WebUI 雙擊docker的桌面圖標(biāo),打開軟件。點(diǎn)擊紅框端口,即可運(yùn)行Open-WebUI。 ![]() 初次訪問時(shí),需要注冊(cè)一個(gè)賬號(hào)。這些信息會(huì)儲(chǔ)存在你的電腦里。 在界面左上角,選擇你的模型,就可以開始對(duì)話啦。 ![]() 五、常見問題 1. 如何查看已安裝的模型? 在命令行中輸入以下命令: ollama list 2. 如何刪除模型? 在命令行中輸入以下命令: ollama rm deepseek-r1:1.5b 在命令行輸入,ollama rm + 模型名稱,例如:ollama rm deepseek-r1:1.5b,就會(huì)自動(dòng)刪除對(duì)應(yīng)模型。
命令行輸入ollama,展示出ollama的其它功能。 ![]() 比如:輸入“ollama stop”是停止模型運(yùn)行,“run + 模型名”是運(yùn)行對(duì)應(yīng)模型。 六、總結(jié) 通過以上步驟,你可以輕松在本地部署 DeepSeek 模型。無論是通過手動(dòng)安裝還是使用 Ollama,本地部署都能為你提供更高的靈活性和數(shù)據(jù)安全性。 |

















