模型上下文協議(MCP):你需要了解的一切

OSCHINA
↑點選藍字 關注我們
大型語言模型(LLMs)強大但受限於上下文。它們:

→ 缺乏對

業務、資料和工作流程

的感知

→ 獨立執行,容易產生

通用、不相關

的回應

→ 無法訪問

即時外部知識

雖然RAG(檢索增強生成)Agentic AI(代理式 AI)為增強 AI 檢索能力與工具互動能力提供了方向,但它們的實現目前依然零散,常是定製開發、難以規模化的解決方案

🧠 什麼是 Model Context Protocol(MCP)?

Anthropic 推出的 MCP(模型上下文協議),旨在標準化 RAG 和代理式 AI 的實現方式,實現 LLM 應用的:

✅ 可擴充套件性

✅ 穩定性

✅ 深度上下文感知

🔧 MCP 是如何工作的?

1. 主機環境(Host Environment

LLM 應用所執行的基礎設施,包括:
  • 實體機器 – 工作站、本地伺服器
  • 虛擬機器 – 雲端 VM、遠端伺服器
  • 容器 – Docker、Kubernetes

2. 主機應用(Host)

LLM 驅動的實際應用,比如:
  • 聊天機器人、搜尋助手
  • 工作流自動化 AI 代理
  • 帶程式碼補全和除錯功能的 IDE

3. MCP 客戶端(Clients)

MCP 客戶端執行在主機應用內,向 MCP 伺服器請求外部資料或操作指令。

4. MCP 伺服器(Server)

MCP 伺服器在 LLM 和外部知識源之間架起一座橋樑,連線:
  • 各類 API – CRM、ERP、企業工具
  • 資料庫 – 業務資料庫、資料倉庫
  • 程式碼倉庫與本地檔案
  • 即時事件流 – SSE、WebSocket

MCP 不止用於資料檢索,還支援執行能力
  • 修改配置
  • 執行指令碼
  • 觸發自動化流程

5. 傳輸層(Transport Layer)

MCP 透過結構化通訊協議(如 JSON-RPC 2.0)進行資料交換,支援:
  • 標準輸入輸出(Stdio)
  • 伺服器推送事件(SSE)
  • 可自定義的實現(根據具體需求)

🚀 MCP 將如何改變 AI?

MCP 代表了 AI 演進的關鍵一環,它為核心 AI 模式提供標準協議:

✔ 

RAG

 – 從外部檢索知識的模式

✔ 

Agentic AI

 – 讓 AI 能夠與工具互動的模式

✔ 

MCP

 – 將這兩者規範化、結構化的實現協議


Gitee 釋出官方 MCP Server,讓開發者可以藉助 AI 助手直接訪問程式碼倉庫,讀取檔案內容、檢視 PR 變更、理解 Issue 描述,甚至直接操作程式碼管理任務,比如建立 PR、合併分支、釋出版本等。
簡單來說,Gitee MCP Server 讓 AI 不再是「程式碼的旁觀者」,真正成為了參與軟體開發過程的智慧助手。
開源地址


https://gitee.com/oschina/mcp-gitee

↓更多精彩內容,歡迎預約直播↓
推薦閱讀


相關文章