在VisualStudioCode中免費使用DeepSeekR1

如果你正在尋找一款推理能力出色且開源且免費的人工智慧那麼新推出的DeepSeek R1是一個不錯的選擇。它與 GPT-4、o1-mini、Claude 3.5 等模型相媲美,並且表現優於它們。我測試過它,讚不絕口!
想在Visual Studio Code中直接執行它作為類似於 GitHub Copilot 的程式碼代理,而無需花一分錢,請跟著我向你展示如何使用LM StudioOllamaJan等工具來執行此操作。

為什麼 DeepSeek R1 最近受到如此熱議?

  • 它是免費且開源的:與許多收費昂貴的模型不同,你可以免費使用它。它甚至可以在https://chat.deepseek.com上進行聊天。
  • 效能:它在涉及邏輯、數學甚至程式碼生成(這是我最喜歡的部分)的任務中與其他模型競爭並超越其他模型。
  • 多個版本:要在本地執行(LLM),有從 1.5B 到 70B 引數的模型,因此你可以根據自己的硬體選擇最適合自己 PC 的模型。
  • 易於整合:你可以使用ClineRoo Code等擴充套件將其連線到 VSCode 。
  • 無成本:如果在本地執行,則無需支付代幣或 API 費用。建議使用顯示卡,因為僅依靠 CPU 執行速度較慢。

開始前的重要提示

  • 節省資源:如果你的電腦效能不是很強大,請堅持使用較小的模型(1.5B 或 7B 引數)或量化版本。
  • RAM 計算器:使用LLM Calc找出你所需的最小記憶體。
  • 隱私:在本地執行意味著你的資料保留在您的電腦上,不會進入外部伺服器。
  • 無成本:本地執行是免費的,但如果想使用 DeepSeek API,則需要支付Token。好訊息是他們的價格比其它競爭對手低得多。

選擇哪種型號?取決於你的電腦!

DeepSeek R1 有多個版本,選擇取決於你的硬體:
  • 1.5B引數
    • 所需記憶體:~4 GB。
    • GPU:整合(如 NVIDIA GTX 1050)或現代 CPU。
    • 用途:簡單的任務和普通的電腦。
  • 7B引數
    • 所需記憶體:〜8-10 GB。
    • GPU:專用(如 NVIDIA GTX 1660 或更好)。
    • 用途:中級任務和具有更好硬體的PC。
  • 70B引數
    • 所需記憶體:~40 GB。
    • GPU:高階(如 NVIDIA RTX 3090 或更高版本)。
    • 用途:複雜的任務和超強大的個人電腦。

如何在本地執行 DeepSeek R1


1. 使用 LM Studio

  • 下載並安裝 LM Studio:只需訪問LM Studio網站並下載適合您系統的版本。
  • 下載 DeepSeek R1 模型:在 LM Studio 中,轉到“發現”選項卡,搜尋“DeepSeek R1”,然後選擇與您的系統最相容的版本。如果您使用的是搭載 Apple 處理器的 MacBook,請保持搜尋欄旁邊的MLX選項處於選中狀態(這些版本針對 Apple 硬體進行了最佳化)。對於 Windows 或 Linux,請選擇GGUF選項。
  • 載入模型:下載完成後,進入本地模型,選擇DeepSeek R1,點選載入
  • 啟動本地伺服器:在開發人員選項卡中,啟用啟動伺服器。它將開始執行模型http://localhost:1234
  • 繼續執行步驟 4與 VSCode 整合

2.使用Ollama

  • 安裝 Ollama :
    Ollama網站下載並安裝。
  • 下載模型:在終端中,執行:
ollama pull deepseek-r1*
  • 這是主要模型;如果想要較小的模型,請轉到https://ollama.com/library/deepseek-r1並檢視在終端中執行哪個命令。
  • 啟動伺服器
    在終端中執行:
    ollama serve
該命令將開始執行模型http://localhost:11434
請繼續執行步驟 4與 VSCode 整合。

3. 使用 Jan

  • 下載並安裝 Jan :在Jan網站上選擇適合您系統的版本。
  • 下載模型:我在 Jan 中無法直接找到 DeepSeek R1。因此,我前往Hugging Face網站並手動搜尋“unsloth gguf deepseek r1”。我找到了所需的版本,單擊“使用此模型”按鈕,並選擇 Jan 作為選項。模型在 Jan 中自動開啟,然後我下載了它。
  • 載入模型:下載後,選擇模型,點選載入
  • 啟動伺服器:Jan 自動啟動伺服器,通常在http://localhost:1337
  • 繼續執行步驟 4與 VSCode 整合

4. 與 VSCode 整合

  • 安裝擴充套件:在 VSCode 中,開啟擴充套件選項卡並安裝 Cline 或 Roo Code。

  • 為 Jan 或 LM Studio 配置擴充套件:ClineRoo Code的配置實際上相同。請按照以下步驟操作:
    • 點選擴充套件並訪問“設定”
    • API 提供程式中,選擇“LM Studio”
    • 基本 URL欄位中,輸入在 Jan 或 LM Studio 中配置的 URL。
    • 如果你只有一個可用模型,則模型 ID欄位將自動填充。否則,請手動選擇您下載的DeepSeek模型。
    • 單擊“完成”即可結束。
配置 Ollama 的擴充套件
    • 點選擴充套件並訪問“設定”
    • API 提供程式中,選擇“Ollama”
    • Base URL欄位中,輸入在 Ollama 中配置的 URL。
    • 如果你只有一個可用模型,則模型 ID欄位將自動填充。否則,請手動選擇你下載的DeepSeek模型。
    • 單擊“完成”即可結束。
  • 整合完成,現在只需享受 Cline 或 Roo Code 的功能。

結論

對於那些想要獲得強大的 AI 而又不想花一分錢的人來說,DeepSeek R1 是一個救星。藉助LM StudioOllamaJan,你可以在本地執行它並將其直接整合到Visual Studio Code中。

選擇適合你 PC 的型號並立即開始使用它吧!

作者:萬能的大雄
相關閱讀:

相關文章