你好,我是郭震
這段時間有讀者跟我留言反饋了一個問題,就是自己電腦即便執行deepseek-r1最小的1.5b模型,提問它一個問題,也遲遲無法得到回覆,好像完全卡頓在那裡。
這個問題還不是個別人遇到過,貌似還挺多的,所以今天這篇文章來探索一個對此問題的解決方法。尤其是個人電腦配置不是很好,比如不帶GPU顯示卡,而是傳統的intel顯示卡的電腦,無法執行大模型的,可以好好看看。
除此以外,這篇文章還會介紹如何藉助大模型搭建個人知識庫。
1解決方案
既然本地算力跟不上,那麼咱們就尋求遠端算力,讓遠端算力接入咱們的電腦,推理計算完全不在自己的電腦上,哪怕是電腦配置好的讀者但不想耗費自己電腦算力的,都可以使用遠端算力。
因此解決方案,總結下來一句話,呼叫遠端大模型算力。
寫這篇文章前我調研了不同平臺,發現騰訊雲的高效能應用服務HAI,對小白最為友好,主要基於兩個原因:
第一,這個平臺的算力接入到本地個人電腦,完全零程式碼實現,這個對於不懂程式設計的朋友就很重要了;
第二,算力模型支援DeepSeek-R1,並且支援不同引數尺寸,從1.5B, 7B, 8B再到滿血版671B等全尺寸支援.
算力問題解決後,文章後半部分會介紹,使用騰訊雲HAI如何接入我開發的個人知識庫軟體,實現對個人檔案的有效管理。
2 騰訊雲HAI算力接入個人電腦
現在騰訊雲HAI上線了CPU版1元體驗活動,相當於白嫖了!他們預裝了DeepSeek-R1 1.5B、7B、8B、14B、32B等五個尺寸的蒸餾模型,這裡以CPU版為例給大家演示HAI算力如何接入個人電腦。
每個步驟我會給大家儘量描述詳細,大家只需按照我的步驟操作,其實一共只用簡單三步就能直接用上DeepSeek-R1,簡直不能再方便了。
步驟一,開啟騰訊雲,網址如下:
https://console.cloud.tencent.com
步驟二,首頁找到高效能應用服務HAI,介面如下所示:

選擇1元體驗HAI-CPU體驗版,CPU算力16核32GB:

第三步:過1分鐘左右,CPU算力就會申請下來,然後點選下面網址:
https://console.cloud.tencent.com/hai/instance?rid=1
就會看到申請的CPU算力HAI, 我們主要用到公網IP,大家複製下儲存到自己的電腦:

預設目前HAI已經接入瞭如下5個平臺:

比如第一個ChatbotUI,大家點選下就可以直接使用上deepseek-r1:8b, 7b, 1.5b的模型了:

可以對話試試,溫度調為0.7,這樣兼顧規律知識和創新:

其他模型大家可以點點探索下,都是零程式碼使用,我就不再介紹了,下面重點說說如何使用HAI算力在本地電腦管理個人知識庫。
3 基於HAI管理個人知識庫
HAI為我們提供了DeepSeek-R1的算力支援,根據它提供的公網IP+埠,然後就可以接入在本地執行的個人知識庫管理軟體了。
我開發的DeepSeekMine軟體,就支援這樣的接入功能,此軟體目前是v0.4版本了,能夠做到零程式碼接入HAI,做知識庫管理比較方便,如下圖所示,輸入關鍵詞小明,然後命中知識庫文件,檢索到上下文後自動注入到DeepSeek-R1模型(HAI提供的算力支援):

可能有些讀者第一次看到此軟體DeepSeekMine,還沒有在自己電腦用上,獲取方法在下面我的公眾號回覆:知識庫,全部開源,不用大家花一分錢:
接下來重點說說如何配置HAI算力到上面的軟體,大家點選上圖軟體的”配置“按鈕,彈出下面的對話方塊,只需要修改Ollama伺服器IP文字框,第二節叫大家複製的那個公網IP,大家複製到這裡就行了,其他的填寫內容按照下圖所示一模一樣即可,比如埠號:6399,大模型名稱可以使用騰訊雲HAI的7b或8b的了,如果想要使用7b,則填寫為:deepseek-r1:7b

點選儲存,儲存完成後,上傳自己的知識庫檔案,然後就可以和DeepSeek對話了,智慧分析自己的知識庫檔案。
總結一下
本文解決了不少讀者朋友遇到的一個棘手問題,就是自己的電腦執行DeepSeek推理延時(或無法推理)進而無法高效使用DeepSeek問題。
解決方案透過遠端接入DeepSeek算力,使用了騰訊雲HAI平臺,主要優勢兩個:
1)對小白比較友好,零程式碼,簡單三步直接用上DeepSeek
2)HAI平臺支援全尺寸DeepSeek模型,671B滿血版也能流暢執行
接入遠端算力後,使用我開發的個人知識庫軟體DeepSeekMine,只需一步配置,就能管理起自己的知識庫,比較方便。感興趣的小夥伴可以使用此文方案去實踐下。
以上全文2298字,8張圖,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個⭐️,謝謝你看我的文章,我們下篇再見。