↑點選藍字 關注我們

大型語言模型(LLMs)強大但受限於上下文。它們:
→ 缺乏對
業務、資料和工作流程
的感知
→ 獨立執行,容易產生
通用、不相關
的回應
→ 無法訪問
即時外部知識
雖然RAG(檢索增強生成)和Agentic AI(代理式 AI)為增強 AI 檢索能力與工具互動能力提供了方向,但它們的實現目前依然零散,常是定製開發、難以規模化的解決方案。
🧠 什麼是 Model Context Protocol(MCP)?
Anthropic 推出的 MCP(模型上下文協議),旨在標準化 RAG 和代理式 AI 的實現方式,實現 LLM 應用的:
✅ 可擴充套件性
✅ 穩定性
✅ 深度上下文感知
🔧 MCP 是如何工作的?
❯ 1. 主機環境(Host Environment)
LLM 應用所執行的基礎設施,包括:
-
實體機器 – 工作站、本地伺服器
-
虛擬機器 – 雲端 VM、遠端伺服器
-
容器 – Docker、Kubernetes
❯ 2. 主機應用(Host)
LLM 驅動的實際應用,比如:
-
聊天機器人、搜尋助手
-
工作流自動化 AI 代理
-
帶程式碼補全和除錯功能的 IDE
❯ 3. MCP 客戶端(Clients)
MCP 客戶端執行在主機應用內,向 MCP 伺服器請求外部資料或操作指令。
❯ 4. MCP 伺服器(Server)
MCP 伺服器在 LLM 和外部知識源之間架起一座橋樑,連線:
-
各類 API – CRM、ERP、企業工具
-
資料庫 – 業務資料庫、資料倉庫
-
程式碼倉庫與本地檔案
-
即時事件流 – SSE、WebSocket
MCP 不止用於資料檢索,還支援執行能力:
-
修改配置
-
執行指令碼
-
觸發自動化流程
❯ 5. 傳輸層(Transport Layer)
MCP 透過結構化通訊協議(如 JSON-RPC 2.0)進行資料交換,支援:
-
標準輸入輸出(Stdio)
-
伺服器推送事件(SSE)
-
可自定義的實現(根據具體需求)
🚀 MCP 將如何改變 AI?
MCP 代表了 AI 演進的關鍵一環,它為核心 AI 模式提供標準協議:
✔
RAG
– 從外部檢索知識的模式
✔
Agentic AI
– 讓 AI 能夠與工具互動的模式
✔
MCP
– 將這兩者規範化、結構化的實現協議
Gitee 釋出官方 MCP Server,讓開發者可以藉助 AI 助手直接訪問程式碼倉庫,讀取檔案內容、檢視 PR 變更、理解 Issue 描述,甚至直接操作程式碼管理任務,比如建立 PR、合併分支、釋出版本等。
簡單來說,Gitee MCP Server 讓 AI 不再是「程式碼的旁觀者」,真正成為了參與軟體開發過程的智慧助手。
開源地址
:
↓更多精彩內容,歡迎預約直播↓
推薦閱讀