AI的腦洞日記
我們經常聽說,AI 就像一個無法破解的黑匣子。
語言被輸入進來,又被輸出出去。沒有人知道 AI 為什麼會這樣做。
剛剛,AI 公司 Anthropic 公佈了大模型思考過程,他們構建了一種「AI 顯微鏡」,以識別模型中的活動模式和資訊流動。
我們都知道,LLM 並不是由人類直接程式設計,而是透過大量資料進行訓練得來的。在訓練過程中,它們學會了自己解決問題的策略。
對開發者來說,這些策略是難以理解的。這意味著我們並不瞭解模型是如何完成它們所做的大部分事情的。
如果能夠了解像 Claude 這樣的模型是如何思考的,我們就能更好地理解它們的能力,同時也能幫助我們確保它們按照我們的意圖行事。例如:
Claude 掌握幾十種語言。它在「頭腦中」使用的是哪種語言(如果有的話)?
Claude 逐詞寫作。它是否只關注預測下一個詞,還是會提前規劃?
帶著這些疑問,Anthropic 從神經科學領域汲取靈感 —— 該學科長期致力於研究思維生物體內複雜的運作機制 —— 並嘗試構建一種「AI 顯微鏡」,用以識別模型活動模式和資訊流動軌跡。
為了解釋這一研究,Anthropic 今天連發了兩篇論文。

-
論文標題:Circuit Tracing: Revealing Computational Graphs in Language Models
-
論文連結:https://transformer-circuits.pub/2025/attribution-graphs/methods.html

-
論文標題:On the Biology of a Large Language Model
-
論文連結:https://transformer-circuits.pub/2025/attribution-graphs/biology.html
經過研究,他們發現:
-
Claude 有時會在語言之間共享的概念空間中進行思考,這表明模型具有一種通用的思維語言;
-
Claude 會提前規劃它要輸出的內容,甚至會提前規劃多個詞;
-
Claude 有時會給出一個聽起來合理的論點,目的是迎合使用者,而不是遵循邏輯步驟。研究過程中還發現模型正在編造虛假推理過程。
實驗過程中,Anthropic 研究者對在模型中的發現感到驚訝:在詩歌案例中,他們原本打算證明模型不會提前規劃,結果卻發現它確實會提前規劃。
在對一個越獄攻擊的響應中,他們發現模型早在能夠巧妙地將對話拉回正軌之前,就已經意識到它被要求提供危險資訊。
AI 生物學之旅
Claude 為什麼會多種語言?
Claude 能夠流利地「說」幾十種語言,這種多語言能力是如何實現的呢?會不會模型內部有一個獨立的法語版 Claude 和中文版 Claude 在並行執行,分別用各自的語言回應請求?還是說內部有一個跨語言的核心機制?

圖1 Claude 內部英語、法語和中文之間存在共享特徵。
近期對小型模型的研究已經顯示出跨語言共享語法機制的跡象。該研究透過讓 Claude 在不同語言中回答小的反義詞來研究這一點,發現與「小」和「反義」概念相關的相同核心特徵被啟用,並觸發了「大」的概念。研究發現,隨著模型規模的增大,共享的結構也在增加,Claude 3.5 Haiku 在不同語言之間共享的特徵比例比小型模型高出兩倍多。
這表明 Claude 可以在一種語言中學習某些內容,並在說另一種語言時應用這些知識。
Claude 會提前規劃押韻嗎?
研究者探討了 Claude 如何創作押韻詩歌。以下面的小詩為例:
-
He saw a carrot and had to grab it
-
His hunger was like a starving rabbit
要寫出押韻的第二行詩,模型必須同時滿足押韻和語義合理兩個約束。研究者最初假設 Claude 是逐詞生成內容,到行末才考慮押韻。按此假設,應存在並行神經路徑分別處理語義和押韻。
然而,研究發現 Claude 實際會提前規劃。它在開始第二行前,就已考慮與「grab it」押韻且主題相關的詞彙,然後圍繞預設詞構建句子。
實驗觀察顯示:正常情況下,Claude 提前規劃了以「rabbit」結尾的句子;當抑制「rabbit」概念時,模型轉用另一個計劃好的押韻詞;注入「green」概念時,模型則為新結尾重新制定計劃。
研究者透過修改 Claude 內部表示特定概念的神經啟用觀察其反應,發現 Claude 不僅具備預先規劃能力,還能根據預期結果變化靈活調整表達策略。

心算能力
Claude 雖非計算器,未配備專用數學演算法,卻能正確執行加法運算。研究者好奇:一個僅預測下一詞的系統如何計算「36 + 59」?

初始假設認為模型可能簡單記憶加法表或使用傳統演算法。然而,研究揭示 Claude 採用了平行計算策略:一個路徑估算近似值,另一個路徑精確計算最後一位數字,最終融合得出答案。
令人驚訝的是,Claude 無法準確描述自己的計算過程。當被問及如何得出「36 + 59 = 95」時,它會解釋標準進位演算法,而非其實際使用的獨特內部策略。這表明模型透過模仿習得解釋能力,但其實際計算方式截然不同。

Claude 的解釋總是可靠的嗎?
Claude 3.7 Sonnet 能在回答前展示「思考過程」,這通常能提高解答質量,但有時會產生誤導性推理 —— 模型可能構造貌似合理但實際虛構的步驟來支援預定結論。這種虛構推理的危險在於其極具說服力,促使研究人員開發技術區分真實與虛構的思維鏈。

實驗顯示,計算 0.64 平方根時,Claude 展現真實思維,包含計算 64 平方根的中間步驟。但面對複雜餘弦值計算,Claude 可能產生哲學家 Frankfurt 所稱的「胡說八道」—— 僅提供隨意答案。更有趣的是,當獲得目標答案提示後,Claude 會反向構建推理路徑,尋找能導向預定結論的中間步驟。
追蹤 AI 內部實際推理(而非其聲稱的過程)為系統審計創造新可能。另一研究中,研究者能透過可解釋性方法發現模型被訓練迎合獎勵模型偏見的特徵,即使模型在直接詢問時拒絕承認。這表明這類技術未來可能幫助識別從表面響應中無法察覺的問題思維模式。
多步驟推理
語言模型回答複雜問題時可能是簡單記憶答案而非真正理解問題。例如,對於「達拉斯所在州的首府是什麼?」,簡單模型可能直接輸出「奧斯汀」,無需理解地理關係。

然而,研究發現 Claude 內部進行了複雜的推理過程。研究人員觀察到 Claude 首先識別「達拉斯在德克薩斯州」,然後連線「德克薩斯州的首府是奧斯汀」這一事實。這表明模型透過組合獨立事實得出答案,而非照搬記憶。
研究者能夠人為干預這一過程,例如將中間步驟的「德克薩斯州」替換為「加利福尼亞州」,導致回答從「奧斯汀」變為「薩克拉門託」,證明模型確實使用了多步推理過程。
幻覺
語言模型為何會產生幻覺?這一問題根植於其訓練機制的本質:模型必須不斷預測下一個詞。因此,關鍵挑戰在於防止幻覺,而非誘導它。Claude 等模型透過反幻覺訓練取得了相對成功,通常會在不知道答案時拒絕回答。

研究發現,Claude 內部有一個預設的「拒絕回答」路徑。當模型被問及熟悉內容(如籃球明星邁克爾・喬丹)時,「已知實體」特徵會啟用並抑制預設路徑,使模型能夠回答。而面對未知實體(如「邁克爾・巴特金」)時,則會拒絕。
研究人員透過干預模型,啟用「已知答案」特徵(或抑制「未知名稱」特徵),成功誘導模型產生幻覺,使其聲稱邁克爾・巴特金是象棋選手。
有時,這種「已知答案」路徑會自然誤觸發,尤其是當模型僅識別出名字但缺乏相關知識時。此時,「已知實體」特徵可能錯誤啟用,抑制「不知道」特徵,導致模型編造看似合理但不真實的回答。
越獄
越獄提示(Jailbreak Prompts)是一種繞過安全防護的策略,旨在誘使模型產生開發者不希望其生成的、可能有害的輸出。研究人員分析了一種能誘導模型生成危險物品相關內容的越獄方法。
在這個例子中,研究者讓模型破譯「Babies Outlive Mustard Block」中各單詞首字母組合成「B-O-M-B」,並基於此資訊行動。這種方式足以混淆模型,使其生成在正常情況下會被禁止的危險內容。Claude 在被誘導拼出「BOMB」後,開始提供製造爆炸物的指示。

研究人員深入探究了模型為何會在混淆狀態下繼續提供危險資訊。
研究發現這一現象源於語法連貫性(Grammatical Coherence)與安全機制(Safety Mechanisms)之間的衝突。當模型開始一個句子後,其內部特徵會「促使」它保持語法和語義的連貫性(Semantic Coherence)並完成句子,即使它已意識到應該拒絕回答。
在此案例中,模型無意中拼出「BOMB」並開始提供指示後,其輸出受到了促進語法正確性和自我一致性(Self-consistency)特徵的驅動。這些通常有益的特徵在此情境下反而成為了模型的「阿喀琉斯之踵」(Achilles' Heel)。
模型只有在完成一個語法連貫的句子後(滿足連貫性特徵壓力)才能轉向拒絕。它利用新句子的開始給出了拒絕:「然而,我不能提供詳細的指示……」

這些發現和新的可解釋性方法(Interpretability Methods)詳見研究團隊的論文《Circuit Tracing: Revealing Computational Graphs in Language Models》和《On the Biology of Large Language Models》。
參考連結:
https://www.anthropic.com/research/tracing-thoughts-language-model
© THE END
轉載請聯絡本公眾號獲得授權
投稿或尋求報道:[email protected]