
新鈦雲服已累計為您分享838篇技術乾貨

在數字化轉型的浪潮中,人工智慧正以前所未有的速度滲透到企業運營的各個環節。尤其對於算力需求旺盛的企業,例如那些關注Nvidia GPU、A800、H100等高效能計算資源的公司,以及積極探索AI Agent(如AutoGen、Devin AI)和低程式碼平臺潛力的組織,如何安全、高效地利用AI提升內部知識管理和對外服務能力,成為其保持競爭力的關鍵。本文將深入探討如何透過DeepSeek強大的語言模型,結合Dify便捷的AI應用開發平臺,構建一個私有化部署的企業知識庫,為企業帶來更智慧、更安全、更高效的知識管理體驗。
企業知識庫的智慧升級迫在眉睫
企業知識庫作為組織智慧的沉澱,是員工獲取資訊、解決問題的重要工具。然而,傳統的知識庫往往面臨資訊孤島、檢索效率低下、內容更新滯後等問題。將AI能力融入知識庫,能夠實現更精準的語義搜尋、更智慧的問答互動、更高效的內容管理,從而極大地提升知識庫的價值。
為什麼選擇私有化部署DeepSeek?
簡單來說,私有化部署就是將DeepSeek AI模型安裝在您自己的伺服器或者電腦上,而不是使用像ChatGPT那樣的線上服務。這樣做的好處顯而易見:
-
資料安全: 敏感的企業資料不會離開您的內部網路,從根本上降低了資料洩露的風險。
-
合規性: 滿足行業特定的資料隱私法規,例如金融、醫療等行業對資料安全有著極為嚴格的要求。
-
定製化: 企業可以根據自身的具體需求對模型進行調整和最佳化,使其更貼合業務場景。
-
成本效益: 長期來看,對於高頻使用的場景,私有化部署可能比按量付費的雲服務更經濟。

強大組合: DeepSeek AI 與 Dify
要構建這樣一個私有化的智慧知識庫,我們需要兩個核心元件:強大的AI模型和便捷的應用開發平臺。DeepSeek AI 和 Dify 的組合正是為此而生。
DeepSeek AI:為企業知識庫注入強大動力
DeepSeek AI 是一家專注於開發高效能、低成本大語言模型和AI系統的創新企業。其核心技術基於先進的Transformer架構和獨特的MoE(混合專家)模型,使其在自然語言處理、程式碼生成、數學推理等方面表現出色。DeepSeek AI 的優勢在於卓越的推理能力、強大的多語言支援、開源與企業級並重的策略,以及高效且經濟的特性。
Dify:簡化私有化AI知識庫的構建與部署
Dify 是一款開源的AI應用開發平臺,致力於幫助開發者快速構建和部署各種AI應用,包括我們這裡要構建的智慧知識庫助手。Dify 的特點是易於使用,並且支援整合各種不同的AI模型,包括DeepSeek。其簡易的私有化部署、靈活的模型整合、強大的知識庫管理功能以及低程式碼/無程式碼的應用構建能力,大大降低了構建智慧知識庫的門檻。
手把手教程:構建您的私有化AI知識庫
接下來,我們將一步步指導您如何使用 DeepSeek 和 Dify 搭建企業專屬的智慧知識庫。
硬體要求
-
CPU:≥ 4核
-
視訊記憶體/記憶體:≥ 16GB
-
磁碟最少20GB
軟體要求
-
Window8以上版本,家庭版或專業版 | MacOS M晶片/Intel | Ubuntu/Debian| Docker
步驟:
-
安裝Ollama: 訪問 Ollama 官方網站 根據您的作業系統(Windows、macOS 或 Linux)下載並安裝Ollama。Windows使用者可能需要安裝 WSL 2(適用於Linux的Windows子系統) 以獲得更好的相容性。
-
驗證安裝: 安裝完成後,開啟終端(在Windows上是命令提示符或PowerShell,macOS和Linux上是Terminal),輸入
ollama -v
並回車。如果顯示Ollama的版本號,則說明安裝成功。 -
執行DeepSeek模型: 在終端中輸入
ollama run deepseek-r1:7b
並回車。這條命令會從Ollama的伺服器下載DeepSeek-R1模型的70億引數版本,並開始在您的本地電腦上執行。Ollama首次執行模型時會需要一些時間下載模型檔案,請耐心等待。下載完成後,您就可以在終端中直接與DeepSeek模型進行對話了。

小貼士: 您可以透過修改命令中的模型名稱來執行DeepSeek的其他版本,例如
ollama run deepseek-r1:1.5b
(更小的模型,資源佔用更少)或者 ollama run deepseek-r1:32b
(字尾B表示訓練引數的數量,一般來說引數越多以為著效能越好,記憶體要求越高)。
Dify提供了多種安裝方式,對於初學者,我們推薦使用 Docker 進行安裝,因為它比較簡單快捷。
步驟:
1. 安裝Docker: 如果您的電腦上還沒有安裝Docker,請訪問 Docker 官網 下載並安裝適合您作業系統的Docker Desktop。
git clone https://github.com/langgenius/dify.git
cd dify
docker compose up -d
小貼士: 如果您希望修改Dify的訪問埠,可以參考Dify的官方文件。
現在我們已經成功運行了DeepSeek模型和Dify平臺,接下來需要將它們連線起來,讓Dify能夠使用我們私有化部署的DeepSeek模型。
步驟:
-
登入Dify平臺: 在瀏覽器中開啟Dify平臺並登入。
-
進入模型提供商設定: 點選頁面右上角的 “Profile” (個人資料) -> “Settings” (設定) -> “Model Providers” (模型提供商)。
-
新增Ollama模型: 在模型提供商頁面,找到 “Ollama” 並點選 “Add Model” (新增模型)。
- 配置DeepSeek模型資訊:
在彈出的對話方塊中,填寫以下資訊: - Model Name (模型名稱):
輸入您在第一步中使用Ollama執行的DeepSeek模型名稱,例如 deepseek-r1:7b
。請務必與您執行的實際模型名稱一致。 - Base URL (基礎URL):
輸入您的Ollama客戶端的執行地址,通常是 http://your_server_ip:11434
。如果您在本地電腦上執行,並且沒有修改Ollama的預設設定,則輸入http://localhost:11434
或http://127.0.0.1:11434
。 - 其他選項保持預設值即可。
小貼士: 如果您在連線過程中遇到問題,請檢查您的Ollama服務是否正在執行,以及Dify平臺是否能夠訪問Ollama的地址和埠。您可以在終端中輸入
ollama list
來檢視正在執行的模型。在Dify中,知識庫是儲存和管理您的企業文件的地方,這些文件將作為AI助手回答問題的依據。
步驟:
-
進入Dify首頁: 登入Dify平臺後,點選左側導航欄的 “Knowledge” (知識)。
-
建立知識庫: 點選 “Create Knowledge Base” (建立知識庫) 按鈕,併為您的知識庫命名。
- 上傳文件:
點選您建立的知識庫,進入知識庫詳情頁面。您可以點選 “Upload Files” (上傳檔案) 按鈕上傳您的企業文件。Dify支援多種檔案格式,例如PDF、Word文件、TXT檔案等,這裡以Excel為例。 -
選擇分塊模式: 為了更好地理解文件內容,Dify會對上傳的文件進行分塊處理。建議您選擇 “Parent-Child Chunking” (父子塊分塊) 模式,這樣可以更好地保留文件的結構資訊,提高AI回答的準確性。 -
等待AI分析: Dify會自動對上傳的文件進行AI分析和索引,這個過程可能需要一些時間,具體取決於您的文件大小和數量。
小貼士: 您可以根據需要建立多個不同的知識庫,用於儲存不同型別或不同部門的知識。
現在我們已經建立了包含企業知識的知識庫,接下來需要將其關聯到我們的AI應用中,這樣AI才能在回答問題時查閱這些知識。
步驟:
-
進入Dify首頁: 登入Dify平臺後,點選左側導航欄的 “Applications” (應用)。
-
建立AI應用: 點選 “Create Blank App” (建立空白應用),選擇 “Chatbot” (聊天機器人) 或 “Chatflow” (對話流/工作流),併為您的應用命名。
-
配置AI應用的上下文: 進入您建立的AI應用的編輯頁面,找到 “Context” (上下文) 部分。
-
新增知識庫: 在上下文部分,點選 “Add Knowledge Base” (新增知識庫),選擇您在第四步中建立的知識庫,並點選 “Confirm” (確認)。
小貼士: 您可以在一個AI應用中整合多個知識庫,以便AI可以查閱更全面的資訊,當前知識庫顯示資訊都是測試假資料。
最後一步是配置我們的AI應用,使其能夠利用整合的DeepSeek模型和企業知識庫來回答使用者的問題。
步驟(以Chatbot應用為例):
1. 選擇模型: 在AI應用的編輯頁面,找到 “Model Provider” (模型提供商) 部分,在下拉選單中選擇您在第三步中整合的 “Ollama”,然後在 “Model” (模型) 下拉選單中選擇您的DeepSeek模型,例如 deepseek-r1:7b。
你是一個基於以下知識庫的企業智慧助手,請根據知識庫的內容回答使用者的問題。如果知識庫中沒有相關資訊,請告知使用者。
知識庫內容:
{{context}}
使用者問題:{{question}}
答案:
其中 {{context}} 會被Dify自動替換為從知識庫中檢索到的相關內容,{{question}} 會被替換為使用者提出的問題。
步驟(以Chatflow/Workflow應用為例):
-
新增LLM節點: 在Chatflow或Workflow的編輯頁面,點選 “+ Add Node” (新增節點),選擇 “LLM” (語言模型)。
-
配置LLM節點: 在LLM節點的配置中,選擇 “Ollama” 作為模型提供商,並選擇您的DeepSeek模型。在 “System Prompt” (系統提示) 中,您可以輸入類似的提示詞,使用
{{#sys.query#}}
變數來獲取使用者的輸入。 -
新增知識庫檢索節點(可選但推薦): 為了更精確地從知識庫中獲取資訊,您可以新增一個 “Knowledge Retrieval” (知識檢索) 節點,並選擇您建立的知識庫。將使用者的輸入連線到知識庫檢索節點,並將檢索結果連線到LLM節點的上下文。
-
新增結束節點: 新增一個 “End” (結束) 節點,並將LLM節點的輸出連線到結束節點。
-
測試您的應用: 點選頁面右上角的 “Preview” (預覽) 按鈕進行測試。
更高階的功能:
Dify還提供了更高階的功能,例如整合網頁搜尋、使用程式碼執行節點處理搜尋結果、以及更復雜的對話流程控制。您可以根據您的具體需求進行探索和配置。
透過以上步驟,您就可以成功地將私有化部署的DeepSeek模型與Dify平臺和您的企業知識庫整合起來,構建一個智慧、安全、高效的企業專屬AI知識庫助手了!希望這些詳細的步驟能夠幫助您更好地理解和實踐。如果您在部署過程中遇到任何問題,歡迎隨時提問。
如有相關問題,請在文章後面給小編留言,小編安排作者第一時間和您聯絡,為您答疑解惑。
推薦閱讀



推薦影片