深度乾貨:DeepSeek+Dify強強聯合,打造企業專屬私有化AI知識庫

新鈦雲服已累計為您分享838篇技術乾貨
在數字化轉型的浪潮中,人工智慧正以前所未有的速度滲透到企業運營的各個環節。尤其對於算力需求旺盛的企業,例如那些關注Nvidia GPU、A800、H100等高效能計算資源的公司,以及積極探索AI Agent(如AutoGen、Devin AI)和低程式碼平臺潛力的組織,如何安全、高效地利用AI提升內部知識管理和對外服務能力,成為其保持競爭力的關鍵。本文將深入探討如何透過DeepSeek強大的語言模型,結合Dify便捷的AI應用開發平臺,構建一個私有化部署的企業知識庫,為企業帶來更智慧、更安全、更高效的知識管理體驗。
企業知識庫的智慧升級迫在眉睫
企業知識庫作為組織智慧的沉澱,是員工獲取資訊、解決問題的重要工具。然而,傳統的知識庫往往面臨資訊孤島、檢索效率低下、內容更新滯後等問題。將AI能力融入知識庫,能夠實現更精準的語義搜尋、更智慧的問答互動、更高效的內容管理,從而極大地提升知識庫的價值。
為什麼選擇私有化部署DeepSeek?
簡單來說,私有化部署就是將DeepSeek AI模型安裝在您自己的伺服器或者電腦上,而不是使用像ChatGPT那樣的線上服務。這樣做的好處顯而易見:
  • 資料安全: 敏感的企業資料不會離開您的內部網路,從根本上降低了資料洩露的風險。
  • 合規性: 滿足行業特定的資料隱私法規,例如金融、醫療等行業對資料安全有著極為嚴格的要求。
  • 定製化: 企業可以根據自身的具體需求對模型進行調整和最佳化,使其更貼合業務場景。
  • 成本效益: 長期來看,對於高頻使用的場景,私有化部署可能比按量付費的雲服務更經濟。
強大組合: DeepSeek AI 與 Dify
要構建這樣一個私有化的智慧知識庫,我們需要兩個核心元件:強大的AI模型和便捷的應用開發平臺。DeepSeek AI 和 Dify 的組合正是為此而生。
DeepSeek AI:為企業知識庫注入強大動力
DeepSeek AI 是一家專注於開發高效能、低成本大語言模型和AI系統的創新企業。其核心技術基於先進的Transformer架構和獨特的MoE(混合專家)模型,使其在自然語言處理、程式碼生成、數學推理等方面表現出色。DeepSeek AI 的優勢在於卓越的推理能力、強大的多語言支援、開源與企業級並重的策略,以及高效且經濟的特性。
Dify:簡化私有化AI知識庫的構建與部署
Dify 是一款開源的AI應用開發平臺,致力於幫助開發者快速構建和部署各種AI應用,包括我們這裡要構建的智慧知識庫助手。Dify 的特點是易於使用,並且支援整合各種不同的AI模型,包括DeepSeek。其簡易的私有化部署、靈活的模型整合、強大的知識庫管理功能以及低程式碼/無程式碼的應用構建能力,大大降低了構建智慧知識庫的門檻。
手把手教程:構建您的私有化AI知識庫
接下來,我們將一步步指導您如何使用 DeepSeek 和 Dify 搭建企業專屬的智慧知識庫。
先決條件

硬體要求

  • CPU:≥ 4核
  • 視訊記憶體/記憶體:≥ 16GB
  • 磁碟最少20GB

軟體要求

  • Window8以上版本,
    家庭版或專業版 | MacOS M晶片/Intel | Ubuntu/Debian| Docker
部署指南
第一步
DeepSeek 私有化部署
步驟:
  1. 安裝Ollama: 訪問 Ollama 官方網站 根據您的作業系統(Windows、macOS 或 Linux)下載並安裝Ollama。Windows使用者可能需要安裝 WSL 2(適用於Linux的Windows子系統) 以獲得更好的相容性。
  2. 驗證安裝: 安裝完成後,開啟終端(在Windows上是命令提示符或PowerShell,macOS和Linux上是Terminal),輸入 ollama -v 並回車。如果顯示Ollama的版本號,則說明安裝成功。
  3. 執行DeepSeek模型: 在終端中輸入 ollama run deepseek-r1:7b 並回車。這條命令會從Ollama的伺服器下載DeepSeek-R1模型的70億引數版本,並開始在您的本地電腦上執行。Ollama首次執行模型時會需要一些時間下載模型檔案,請耐心等待。下載完成後,您就可以在終端中直接與DeepSeek模型進行對話了。
小貼士: 您可以透過修改命令中的模型名稱來執行DeepSeek的其他版本,例如 ollama run deepseek-r1:1.5b (更小的模型,資源佔用更少)或者 ollama run deepseek-r1:32b (字尾B表示訓練引數的數量,一般來說引數越多以為著效能越好,記憶體要求越高)。
第二步
安裝 Dify 社群版
Dify提供了多種安裝方式,對於初學者,我們推薦使用 Docker 進行安裝,因為它比較簡單快捷。
步驟:

1. 安裝Docker: 如果您的電腦上還沒有安裝Docker,請訪問 Docker 官網 下載並安裝適合您作業系統的Docker Desktop。

2. 克隆Dify程式碼倉庫: 開啟終端,執行以下命令克隆Dify的GitHub程式碼倉庫:
git clone https://github.com/langgenius/dify.gitcd dify
3. 啟動Dify: 在 dify 目錄下,執行以下命令啟動Dify:
docker compose up -d
這條命令會下載Dify所需的所有元件並啟動執行。首次啟動可能需要一些時間。
4. 訪問Dify平臺: Dify社群版預設執行在您伺服器或電腦的 80 埠。在瀏覽器中輸入您伺服器的IP地址(如果您在本地電腦上安裝,則輸入 http://localhost 或 http://127.0.0.1)。

小貼士: 如果您希望修改Dify的訪問埠,可以參考Dify的官方文件。

第三步
整合 DeepSeek 到 Dify
現在我們已經成功運行了DeepSeek模型和Dify平臺,接下來需要將它們連線起來,讓Dify能夠使用我們私有化部署的DeepSeek模型。
步驟:
  1. 登入Dify平臺: 在瀏覽器中開啟Dify平臺並登入。
  2. 進入模型提供商設定: 點選頁面右上角的 “Profile” (個人資料) -> “Settings” (設定) -> “Model Providers” (模型提供商)
  3. 新增Ollama模型: 在模型提供商頁面,找到 “Ollama” 並點選 “Add Model” (新增模型)。
  4. 配置DeepSeek模型資訊:
     在彈出的對話方塊中,填寫以下資訊: 
    • Model Name (模型名稱):
       輸入您在第一步中使用Ollama執行的DeepSeek模型名稱,例如 deepseek-r1:7b。請務必與您執行的實際模型名稱一致。
    • Base URL (基礎URL):
       輸入您的Ollama客戶端的執行地址,通常是 http://your_server_ip:11434。如果您在本地電腦上執行,並且沒有修改Ollama的預設設定,則輸入 http://localhost:11434 或 http://127.0.0.1:11434
    • 其他選項保持預設值即可。
5.儲存配置: 點選 “Save” (儲存) 完成DeepSeek模型的整合。

小貼士: 如果您在連線過程中遇到問題,請檢查您的Ollama服務是否正在執行,以及Dify平臺是否能夠訪問Ollama的地址和埠。您可以在終端中輸入 ollama list 來檢視正在執行的模型。
第四步
建立知識庫
在Dify中,知識庫是儲存和管理您的企業文件的地方,這些文件將作為AI助手回答問題的依據。
步驟:
  1. 進入Dify首頁: 登入Dify平臺後,點選左側導航欄的 “Knowledge” (知識)
  2. 建立知識庫: 點選 “Create Knowledge Base” (建立知識庫) 按鈕,併為您的知識庫命名。
  3. 上傳文件:
     點選您建立的知識庫,進入知識庫詳情頁面。您可以點選 “Upload Files” (上傳檔案) 按鈕上傳您的企業文件。Dify支援多種檔案格式,例如PDF、Word文件、TXT檔案等,這裡以Excel為例。
  4. 選擇分塊模式: 為了更好地理解文件內容,Dify會對上傳的文件進行分塊處理。建議您選擇 “Parent-Child Chunking” (父子塊分塊) 模式,這樣可以更好地保留文件的結構資訊,提高AI回答的準確性。
  5. 等待AI分析: Dify會自動對上傳的文件進行AI分析和索引,這個過程可能需要一些時間,具體取決於您的文件大小和數量。
小貼士: 您可以根據需要建立多個不同的知識庫,用於儲存不同型別或不同部門的知識。
第五步
將知識庫整合到 AI 應用
現在我們已經建立了包含企業知識的知識庫,接下來需要將其關聯到我們的AI應用中,這樣AI才能在回答問題時查閱這些知識。
步驟:
  1. 進入Dify首頁: 登入Dify平臺後,點選左側導航欄的 “Applications” (應用)
  2. 建立AI應用: 點選 “Create Blank App” (建立空白應用),選擇 “Chatbot” (聊天機器人)  “Chatflow” (對話流/工作流),併為您的應用命名。
  3. 配置AI應用的上下文: 進入您建立的AI應用的編輯頁面,找到 “Context” (上下文) 部分。
  4. 新增知識庫: 在上下文部分,點選 “Add Knowledge Base” (新增知識庫),選擇您在第四步中建立的知識庫,並點選 “Confirm” (確認)
小貼士: 您可以在一個AI應用中整合多個知識庫,以便AI可以查閱更全面的資訊,當前知識庫顯示資訊都是測試假資料。
第六步
構建智慧問答應用
最後一步是配置我們的AI應用,使其能夠利用整合的DeepSeek模型和企業知識庫來回答使用者的問題。
步驟(以Chatbot應用為例):

1. 選擇模型: 在AI應用的編輯頁面,找到 “Model Provider” (模型提供商) 部分,在下拉選單中選擇您在第三步中整合的 “Ollama”,然後在 “Model” (模型) 下拉選單中選擇您的DeepSeek模型,例如 deepseek-r1:7b。

2. 配置提示詞(Prompt): 在 “Prompt” (提示詞) 部分,您可以設定一些引導AI如何回答問題的指令。對於一個簡單的知識庫問答應用,您可以設定類似以下的提示詞
你是一個基於以下知識庫的企業智慧助手,請根據知識庫的內容回答使用者的問題。如果知識庫中沒有相關資訊,請告知使用者。知識庫內容:{{context}}使用者問題:{{question}}答案:

其中 {{context}} 會被Dify自動替換為從知識庫中檢索到的相關內容,{{question}} 會被替換為使用者提出的問題。

3. 測試您的應用: 在編輯頁面的右側,有一個 “Preview” (預覽) 視窗,您可以在這裡輸入問題來測試您的智慧問答應用。如果一切配置正確,AI應該能夠根據您的知識庫內容給出回答。

步驟(以Chatflow/Workflow應用為例):
  1. 新增LLM節點: 在Chatflow或Workflow的編輯頁面,點選 “+ Add Node” (新增節點),選擇 “LLM” (語言模型)
  2. 配置LLM節點: 在LLM節點的配置中,選擇 “Ollama” 作為模型提供商,並選擇您的DeepSeek模型。在 “System Prompt” (系統提示) 中,您可以輸入類似的提示詞,使用 {{#sys.query#}} 變數來獲取使用者的輸入。
  3. 新增知識庫檢索節點(可選但推薦): 為了更精確地從知識庫中獲取資訊,您可以新增一個 “Knowledge Retrieval” (知識檢索) 節點,並選擇您建立的知識庫。將使用者的輸入連線到知識庫檢索節點,並將檢索結果連線到LLM節點的上下文。
  4. 新增結束節點: 新增一個 “End” (結束) 節點,並將LLM節點的輸出連線到結束節點。
  5. 測試您的應用: 點選頁面右上角的 “Preview” (預覽) 按鈕進行測試。
更高階的功能:
Dify還提供了更高階的功能,例如整合網頁搜尋、使用程式碼執行節點處理搜尋結果、以及更復雜的對話流程控制。您可以根據您的具體需求進行探索和配置。
透過以上步驟,您就可以成功地將私有化部署的DeepSeek模型與Dify平臺和您的企業知識庫整合起來,構建一個智慧、安全、高效的企業專屬AI知識庫助手了!希望這些詳細的步驟能夠幫助您更好地理解和實踐。如果您在部署過程中遇到任何問題,歡迎隨時提問。

如有相關問題,請在文章後面給小編留言,小編安排作者第一時間和您聯絡,為您答疑解惑。

    推薦閱讀   

    推薦影片    

相關文章