買它!趁著過年有空學起來。



首先登場的是小白極簡版本,在官網(lmstudio.ai)根據個人電腦型號下載 LM Studio,接著為了方便使用,建議點選右下角修改語言為簡體中文。




然後搜尋 deepseek-r1 選擇合適的版本下載,作為示例,我選擇使用阿里 Qwen 模型為基座蒸餾出來的 7B 小模型。




配置完成後,即可一鍵啟動。

使用 LM Studio 的好處就是不用程式碼、介面友好,但跑大型模型的時候對效能要求高,因此更適合新手入門使用基礎功能。
當然,對於追求更深層次體驗的使用者,我們也準備了進階方案。
首先從官網(ollama.com)獲取並安裝 Ollama。

啟動後開啟命令列工具。Mac 使用者鍵盤 Command+空格 開啟「終端」工具,Windows 使用者鍵盤執行 Win+R ,輸入 cmd 開啟「命令提示符」工具。

在視窗中輸入程式碼指令(ollama run deepseek-r1:7b)即可開始下載。請注意英文狀態輸入,檢查空格和橫槓,冒號後輸入所需要的版本名稱。

配置完成後就能在命令列視窗開始對話。

這個方法對效能要求很低,但需要熟悉命令列操作,模型的相容性也有限,更適合進階開發者實現高階操作。
如果你想要比較好看的互動介面,不妨在 Chrome 瀏覽器安裝外掛,搜尋安裝 PageAssist。

選擇本地已安裝的模型,開始使用。

右上角設定裡修改好語言,主頁選擇模型就可以開始對話,而且支援基礎的聯網搜尋,玩法也更多樣。


4. 在評估模型效能時,建議進行多次測試,並取結果的平均值。
5. 此外,我們注意到 DeepSeek-R1 系列模型在響應某些查詢時,可能會繞過思維模式(即輸出 「\n\n」),這可能會影響模型的效能。為了確保模型進行充分的推理,我們建議在每次輸出的開始,強制模型以 「\n」 開始其響應。











DeepSeek-R1-Distill-Qwen-32B

DeepSeek-R1-Distill-Llama-70B






DeepSeek-R1-Distill-Qwen-32B

DeepSeek-R1-Distill-Llama-70B

本地部署最常用的功能當屬打造自己的知識庫,方法則是在安裝 LM Studio 之後,增加與 Anything LLM 聯動的部署步驟。





附上完整配置連結:
https://x.com/carrigmat/status/1884244369907278106

而對於企業使用者、開發者或對資料隱私有特殊需求的使用者,本地部署依然是一個值得考慮的選擇,但前提是你清楚自己為什麼需要它,以及它存在的各種侷限性。
問: 我能在普通的電腦上部署 DeepSeek 嗎?
答: DeepSeek 的完整版對電腦要求較高,但是,如果你只是想用它進行簡單的操作,可以選擇一些蒸餾小模型,不過仍需量力而行。
問:什麼是 DeepSeek R1 的蒸餾版模型?
答: 蒸餾版模型是 DeepSeek R1 的簡化版本,硬體要求更低,執行起來速度也更快。
問: 我能在沒有網路的情況下使用 DeepSeek 嗎?
答: 如果你選擇本地部署 DeepSeek,那麼在沒有網際網路的情況下也能使用它。如果你透過雲端或第三方平臺使用,就需要網路連線才能訪問。
問: 使用 DeepSeek 時,我的個人資料是否安全?
答: 如果你選擇本地部署 DeepSeek,那麼你的資料不會上傳到雲端,更加安全。如果使用線上版本,確保選擇可信的服務平臺,保護個人隱私。

我們正在招募夥伴
