

如果你正在尋找一款推理能力出色且開源且免費的人工智慧,那麼新推出的DeepSeek R1是一個不錯的選擇。它與 GPT-4、o1-mini、Claude 3.5 等模型相媲美,並且表現優於它們。我測試過它,讚不絕口!
想在Visual Studio Code中直接執行它作為類似於 GitHub Copilot 的程式碼代理,而無需花一分錢,請跟著我向你展示如何使用LM Studio、Ollama和Jan等工具來執行此操作。
為什麼 DeepSeek R1 最近受到如此熱議?
-
它是免費且開源的:與許多收費昂貴的模型不同,你可以免費使用它。它甚至可以在https://chat.deepseek.com上進行聊天。
-
效能:它在涉及邏輯、數學甚至程式碼生成(這是我最喜歡的部分)的任務中與其他模型競爭並超越其他模型。
-
多個版本:要在本地執行(LLM),有從 1.5B 到 70B 引數的模型,因此你可以根據自己的硬體選擇最適合自己 PC 的模型。
-
易於整合:你可以使用Cline或Roo Code等擴充套件將其連線到 VSCode 。
-
無成本:如果在本地執行,則無需支付代幣或 API 費用。建議使用顯示卡,因為僅依靠 CPU 執行速度較慢。
開始前的重要提示
-
節省資源:如果你的電腦效能不是很強大,請堅持使用較小的模型(1.5B 或 7B 引數)或量化版本。
-
RAM 計算器:使用LLM Calc找出你所需的最小記憶體。
-
隱私:在本地執行意味著你的資料保留在您的電腦上,不會進入外部伺服器。
-
無成本:本地執行是免費的,但如果想使用 DeepSeek API,則需要支付Token。好訊息是他們的價格比其它競爭對手低得多。
選擇哪種型號?取決於你的電腦!
DeepSeek R1 有多個版本,選擇取決於你的硬體:
-
1.5B引數:
-
所需記憶體:~4 GB。
-
GPU:整合(如 NVIDIA GTX 1050)或現代 CPU。
-
用途:簡單的任務和普通的電腦。
-
7B引數:
-
所需記憶體:〜8-10 GB。
-
GPU:專用(如 NVIDIA GTX 1660 或更好)。
-
用途:中級任務和具有更好硬體的PC。
-
70B引數:
-
所需記憶體:~40 GB。
-
GPU:高階(如 NVIDIA RTX 3090 或更高版本)。
-
用途:複雜的任務和超強大的個人電腦。
如何在本地執行 DeepSeek R1

1. 使用 LM Studio
-
下載並安裝 LM Studio:只需訪問LM Studio網站並下載適合您系統的版本。
-
下載 DeepSeek R1 模型:在 LM Studio 中,轉到“發現”選項卡,搜尋“DeepSeek R1”,然後選擇與您的系統最相容的版本。如果您使用的是搭載 Apple 處理器的 MacBook,請保持搜尋欄旁邊的MLX選項處於選中狀態(這些版本針對 Apple 硬體進行了最佳化)。對於 Windows 或 Linux,請選擇GGUF選項。
-
載入模型:下載完成後,進入本地模型,選擇DeepSeek R1,點選載入。
-
啟動本地伺服器:在開發人員選項卡中,啟用啟動伺服器。它將開始執行模型
http://localhost:1234
。 -
繼續執行步驟 4與 VSCode 整合!
2.使用Ollama
-
安裝 Ollama :從Ollama網站下載並安裝。
-
下載模型:在終端中,執行:
ollama pull deepseek-r1*
-
這是主要模型;如果想要較小的模型,請轉到https://ollama.com/library/deepseek-r1並檢視在終端中執行哪個命令。
-
啟動伺服器:在終端中執行:ollama serve
該命令將開始執行模型
http://localhost:11434
。請繼續執行步驟 4與 VSCode 整合。
3. 使用 Jan
-
下載並安裝 Jan :在Jan網站上選擇適合您系統的版本。
-
下載模型:我在 Jan 中無法直接找到 DeepSeek R1。因此,我前往Hugging Face網站並手動搜尋“unsloth gguf deepseek r1”。我找到了所需的版本,單擊“使用此模型”按鈕,並選擇 Jan 作為選項。模型在 Jan 中自動開啟,然後我下載了它。
-
載入模型:下載後,選擇模型,點選載入。
-
啟動伺服器:Jan 自動啟動伺服器,通常在
http://localhost:1337
。 -
繼續執行步驟 4與 VSCode 整合!
4. 與 VSCode 整合
-
安裝擴充套件:在 VSCode 中,開啟擴充套件選項卡並安裝 Cline 或 Roo Code。
-
為 Jan 或 LM Studio 配置擴充套件:Cline和Roo Code的配置實際上相同。請按照以下步驟操作:
-
點選擴充套件並訪問“設定”。
-
在API 提供程式中,選擇“LM Studio”。
-
在基本 URL欄位中,輸入在 Jan 或 LM Studio 中配置的 URL。
-
如果你只有一個可用模型,則模型 ID欄位將自動填充。否則,請手動選擇您下載的DeepSeek模型。
-
單擊“完成”即可結束。
配置 Ollama 的擴充套件:
-
點選擴充套件並訪問“設定”。
-
在API 提供程式中,選擇“Ollama”。
-
在Base URL欄位中,輸入在 Ollama 中配置的 URL。
-
如果你只有一個可用模型,則模型 ID欄位將自動填充。否則,請手動選擇你下載的DeepSeek模型。
-
單擊“完成”即可結束。
-
整合完成,現在只需享受 Cline 或 Roo Code 的功能。
結論
對於那些想要獲得強大的 AI 而又不想花一分錢的人來說,DeepSeek R1 是一個救星。藉助LM Studio、Ollama或Jan,你可以在本地執行它並將其直接整合到Visual Studio Code中。
選擇適合你 PC 的型號並立即開始使用它吧!
作者:萬能的大雄
相關閱讀: