
簡單才是王道,Anthropic 的智慧體開發的“反直覺”法則
Anthropic 最新發布了一篇關於 Agent 的部落格文章,得出了一個引人深思的結論:
AI 開發的未來,在於“Less is More”。
在公眾號後臺傳送口令“1222”即可獲取完整 PDF。
接下來小鹿和大家一起看看智慧體開發的“大道至簡”之道。

Agent 的定義
提到 Agent,很多人以為它是 LLM 的產物,但其實不是。
Agent 的現代定義,是在 20 世紀 50 年代伴隨著 AI 發展逐漸形成的,究其根源,可以追溯到更早的哲學思考和科學探索。
在 1950 年,阿蘭·圖靈在其論文《計算機器與智慧》中提出了“高度智慧有機體”的概念,並引入了著名的圖靈測試。
1972 年,美國學者 Marvin Minsky 在麻省理工學院建立了人工智慧實驗室,並正式提出了“代理”(Agent)的概念,認為 AI Agent 應該具備感知世界、進行推理和執行動作的能力。
Anthropic 將 Agent 系統分為兩大類:工作流 (Workflows) 和 智慧體 (Agents)。
-
工作流:指的是透過預定義的程式碼路徑來編排 LLM 和工具的系統。它更像是一個精心設計的流程,每一步都清晰可控。 -
智慧體:則是由 LLM 動態地指導自身流程和工具使用的系統。它更像是一個自主的決策者,能夠根據環境反饋靈活調整行動。
關鍵區別在於 LLM 是否能夠動態控制自身流程和工具使用。
框架的迷思:迴歸 LLM API 本質
在構建 LLM 應用時,應遵循“簡單至上”的原則:能簡單就簡單,只有在必要的時候才增加複雜度。
只有當簡單的方案無法滿足需求時,才考慮引入更復雜的 Agent 系統。因為 Agent 系統往往以更高的延遲和成本為代價,換取更好的任務效能。
那如果一定要用呢?
-
什麼時候用“工作流”? 當任務非常明確,而且可以分解成一系列固定的步驟時,就像流水線上的工作一樣,用“工作流程”就足夠了。 -
什麼時候用“智慧體”? 當任務需要很大的靈活性,而且需要模型自己做決策時,就像一個需要隨機應變的指揮官,這時候“智慧體”就更適合。
但其實,對於大多數應用來說,最佳化一下單大語言模型的呼叫,再結合一些檢索和上下文的例子,通常就足夠了。
就像人類平時解決問題一樣,先用最簡單的方法試試,不一定非要用複雜的工具。
市面上湧現出各種 Agent 框架,比如:
-
LangGraph(LangChain 的工具):就像一套功能強大的樂高套件,可以用來搭建各種複雜的 Agent 系統。 -
Amazon Bedrock 的 AI Agent 框架:就像一個專業的工具箱,提供了各種構建 Agent 系統的工具和元件。 -
Rivet(拖放式 GUI LLM 工作流構建器):就像一個視覺化編輯器,可以透過拖拽的方式來構建 LLM 的工作流程,非常方便。 -
Vellum(複雜工作流的構建和測試工具):就像一個高階的實驗室,可以用來構建和測試複雜的工作流程。
這些框架確實簡化了 LLM 呼叫、工具定義等基礎任務,氮素,同時也引入額外的抽象層,這可能會模糊底層的提示和響應,從而使除錯更加困難。
Anthropic 的建議開發者,從直接呼叫大語言模型的 API 開始:
“許多模式可以用幾行程式碼實現。如果你確實要使用框架,請確保你理解底層的程式碼。對底層原理的錯誤假設是客戶錯誤的常見來源”。
大道至簡,Less is More
Anthropic 特別強調了 "簡單性" 這一核心理念,總結了構建有效智慧體的由簡至繁的開發路線,
優先使用基礎構建塊:增強型 LLM(具備檢索、工具使用、記憶等能力),其次是工作流模式:提示鏈(Prompt Chaining)、路由(Routing)、並行化(Parallelization)、編排者-執行者(Orchestrator-workers)、評估者-最佳化者(Evaluator-optimizer),最後是自主 Agent,能夠獨立規劃和執行復雜任務。
Agent 系統的基礎是增強型 LLM,它具備檢索、工具和記憶等能力。
從最基礎的構建模組增強型 LLM 入手,逐步增加複雜性,從簡單的組合式工作流程過渡到自主智慧體群。
應用的基石:增強型 LLM
最簡單的方法無疑是增強型語言模型。
透過檢索、工具和記憶等機制擴充套件大語言模型的能力,這樣大語言模型能夠主動運用這些能力——生成自己的搜尋查詢、選擇合適的工具,並決定保留哪些資訊。

大語言模型可以增強的兩個關鍵點:
-
根據具體用例定製功能 -
確保大語言模型提供一個簡單、文件完善的介面。
Anthropic 提出目前市面上已經有很多方法可以實現這些增強功能,但是他們最推薦的還是自家的上下文協議(Model Context Protocol,MCP),該協議允許開發者透過簡單的客戶端實現與不斷增長的第三方工具生態系統整合。
小鹿貼心的給大家準備好了 MCP 的介紹:
Model Context Protocol 介紹:
https://www.anthropic.com/news/model-context-protocol
https://www.anthropic.com/news/model-context-protocol
提示鏈 (Prompt Chaining)
這種方法是將一個任務分解成一系列步驟,其中的每個大語言模型的呼叫都會處理前一個呼叫的輸出,這樣可以在任何中間步驟中新增程式化的檢查(見下圖中的“門控 Gate”),以確保流程仍在正軌上。

如果任務能夠輕鬆且清晰地分解為一系列固定的子任務,那麼這個工作流將非常適用!
它透過將複雜任務分解為更簡單的步驟,讓每個大語言模型呼叫更容易處理 ~ 氮素,這確實是在犧牲一些時效性的情況下,換取更高的準確性。
路由 (Routing)
這種方法適用於對輸入進行分類,並將其引導至相應的專業化後續任務的場景中。當你要處理的任務很複雜,而且可以分成好幾個不同的類別,每個類別最好用不同的方法處理時,就可以用路由工作流。

路由工作流適用的場景:
-
將不同型別的客戶服務查詢(一般問題、退款請求、技術支援)導向不同的下游流程、提示和工具。 -
將簡單/常見的問題路由到較小的模型(如 Claude 3.5 Haiku),將困難/不常見的問題路由到功能更強大的模型(如 Claude 3.5 Sonnet),以最佳化成本和速度。
並行化 (Parallelization)
這種模式是考慮到大語言模型可以同時執行多個任務,並透過程式化方式整合結果。因此,這種並行化工作流就可以用下面兩種方式讓大語言模型合作:
-
分段處理: 將任務分解為多個獨立的子任務,並同時執行這些子任務。 -
多重投票: 多次執行相同的任務,以獲取多樣化的輸出結果。

當子任務可以並行執行以提升速度,或需要從多個角度或多次嘗試來提高結果的可靠性時,並行化工作流非常有效。因為,對於涉及多方面考慮的複雜任務,這種模式通常能獲得更好的效果!
並行化適用的場景:
-
分段處理:
-
構建安全防護機制,其中一個模型例項負責處理使用者查詢,而另一個模型例項則負責篩選不當內容或請求。這種方式通常比讓同一個模型呼叫同時處理安全防護和核心響應效果更佳。 -
自動化評估模型效能,其中每個模型呼叫負責評估模型在給定提示下的不同效能指標。 -
多重投票:
-
對程式碼進行漏洞審查,其中多個不同的提示分別審查程式碼,並在發現問題時進行標記。 -
評估內容是否不當,其中多個提示從不同角度進行評估,或採用不同的投票閾值來平衡誤報和漏報。
協調者-工作者模式
在這種模式下,一箇中央大語言模型會動態地分解任務,並將這些子任務分配給不同的工作者模型,最後再整合所有工作者的結果。這個工作流程特別適用於那些無法預先確定子任務的複雜場景(例如,在程式設計中,需要修改的檔案數量以及每個檔案的修改內容通常取決於具體的任務)。

雖然在結構上與並行化相似,但關鍵區別在於其高度的靈活性——子任務預先不設定,由協調器根據具體的輸入動態決定的。
協調器-工作者模式有用的場景:
-
需要對多個檔案進行復雜修改的編碼產品。 -
需要從多個來源收集並分析資訊以尋找相關內容的搜尋任務。
評估器-最佳化器模式
在這種模式下,一個大語言模型負責呼叫生成響應,而另一個大語言模型呼叫則在一個迴圈中提供評估和反饋。當有明確的評估標準,並且迭代改進能提供可衡量的價值時,這個工作流程會特別有效。

兩個適合這種工作流模式的標誌:
-
當人類表達他們的反饋時,大語言模型的響應可以被明顯改進- -
大語言模型可以提供這樣持續的反饋
Anthropic 形容,類似於人類精雕細琢的過程 ~
評估器-最佳化器有用的示例:
-
文學翻譯,比如翻譯模型最初可能無法捕捉到的細微差別,但評估器模型可以提供有用的評審意見。 -
需要進行多輪搜尋和分析以收集全面資訊的複雜搜尋任務,評估器可以用來決定是否需要進一步搜尋。
智慧體:自主決策的未來
當 LLM 在理解複雜輸入、推理規劃、可靠使用工具和從錯誤中恢復等關鍵能力上成熟時,智慧體開始在生產中嶄露頭角。智慧體可以處理開放式問題,無需預先定義步驟,並能根據環境反饋自主決策。
智慧體在執行任務的過程中,經常需要從環境中獲取實際的執行結果(例如工具呼叫結果或程式碼執行的輸出),以此來判斷下一步行動並檢查任務進度。
因此,系統通常設計了在特定節點或遇到困難時暫停的功能,以便引入人工干預或反饋。任務通常在完成後自動結束,但為了防止無限迴圈或資源耗盡,通常也會設定停止條件,例如限制最大迭代次數。

當面對步驟不固定、執行路徑無法預先規劃的複雜問題時,智慧體群能夠發揮其優勢。憑藉自主行動的能力,智慧體群尤其適合在可控的環境中高效處理大規模任務。

由於智慧體群通常透過迭代式推理和執行來完成任務,因此使用者需要對其決策能力建立信任。特別是在需要根據任務描述對多個檔案進行協同編輯的場景中,智慧體群就能展現出強大的能力。

AI 開發的未來,在於“Less is More”
Anthropic 總結了構建有效智慧體的三個核心原則:簡單、透明、精心設計
-
保持設計的簡潔性:避免過度複雜化。 -
優先考慮透明度:明確展示智慧體的規劃步驟。 -
精心設計智慧體-計算機介面 (ACI):透過完善的工具文件和測試。
這篇部落格的核心思想是:在 LLM 領域,成功並非取決於構建最複雜的系統,而是構建最適合需求的系統。 我們應該從簡單的提示開始,透過全面的評估進行最佳化,只有當簡單的解決方案不足以滿足需求時,才考慮引入多步驟的 Agent 系統。
在將智慧體系統投入生產環境時,切記要毫不猶豫地減少抽象層,並使用基本元件進行構建,這樣構建出來的智慧體系統才是最高效簡潔強大的!
最後,在 AI 技術快速發展的今天,這些原則將幫助我們構建出真正可靠、可維護且受使用者信任的 Agent 系統。在追求技術創新的同時,記住一點:最好的方案往往是最簡單的方案。
在公眾號後臺傳送口令“1222”即可獲取完整 PDF。


