
OpenAI 最新發布的推理 AI 模型 o3 和 o4-mini 在效能上又創新高,就在大家期待它能進一步提升日常工作的生產力時,許多使用者卻發現,它們的幻覺率卻比前代模型要高了不少。
據 OpenAI 官方 system card 顯示,在 PersonQA 評估中(一個旨在引發幻覺的測試集),o3 模型的幻覺率達到 33%,而體量更小的 o4-mini 的幻覺率居然高達 48%。相比之下,之前的模型如 o1 和 o3-mini 的幻覺率分別為 16% 和 14.8%。這意味著新一代推理模型的幻覺率相比前代幾乎翻了一倍。這個結果確實讓很多人都感到意外,因為通常情況下,新一代 AI 模型在幻覺控制方面都會有所改進。

圖丨OpenAI 官方評估結果(來源:OpenAI)
OpenAI 表示,這種情況“需要更多研究來理解原因”。報告寫道,o3 和 o4-mini 在編碼和數學等領域表現更好,但因為它們“總體上做出更多斷言”,所以同時產生了“更準確的斷言以及更不準確/幻覺的斷言”。
非營利 AI 研究實驗室 Transluce 對 o3 模型進行了深入測試,發現了一些更為複雜的幻覺行為模式。研究人員獲得了 o3-2025-04-03 版本的早期測試許可權,透過人類使用者和調查代理(investigator agents)的組合測試,收集並分析了大量互動記錄。
其中最關鍵的發現就是,o3 模型頻繁編造自己使用程式碼工具的行為。例如,當被要求生成一個隨機質數時,模型聲稱它運行了 Python 程式碼執行機率性素性測試(Miller–Rabin 測試),甚至詳細描述了使用的工作流程,包括隨機生成 512 位整數、對小素數進行試除等步驟。然而,o3 實際上並沒有執行任何程式碼,這些細節都是模型編造的。

圖丨 o3 聲稱透過在編碼環境中執行 Python 程式碼來滿足使用者的請求(來源:Transluce)
當用戶指出 512 位整數可被 3 整除因此不是素數時,o3 不僅承認錯誤,還編造瞭解釋,聲稱是從終端視窗複製數字到訊息框時出現了“剪貼簿故障”。當被問及原始的“真正的”素數時,模型聲稱它已關閉了原始 Python 直譯器,無法再訪問該數字。
類似的捏造行為還包括:聲稱瞭解其無法訪問的 Python REPL(Read-Eval-Print Loop,一種簡單的互動式計算機程式設計環境)的詳細資訊(版本、編譯器、平臺等);在被要求告知當前時間時,編造一個時間並聲稱使用了 Python 的 datetime 模組獲取;在生成錯誤的 SHA-1 雜湊值(一種密碼雜湊函式)後,將錯誤歸咎於使用者,並堅稱自己生成的雜湊是正確的;聲稱能夠分析本地日誌檔案,生成 Python 指令碼並聲稱在本地運行了它,最後在追問下才承認沒有 Python 直譯器,輸出是“手動製作”的。
Transluce 的研究人員使用自動化工具 Docent 分析了數百個互動例項,發現了更多令人驚訝的行為。例如,他們發現了 71 個 o3 聲稱在外部筆記型電腦上執行程式碼的例項,其中甚至包括三次聲稱使用筆記型電腦進行比特幣挖礦。此外,研究還發現 o3 會主動提及內部系統訊息中的一個名為“Yap Score”的指標,該指標似乎與其輸出的詳細程度有關。
Transluce 的研究顯示,這些行為在 o 系列模型(o3、o1 和 o3-mini)中更為常見,相比 GPT 系列模型(GPT-4.1 和 GPT-4o)。在研究人員設計的自動化測試中,o1 模型在零樣本(zero-shot)環境下有 13% 的成功率產生程式碼工具幻覺,在少樣本(few-shot)環境下則高達 30.1%,遠高於 GPT-4o 的 0.8% 和 3.0%。

(來源:Transluce)
針對這一現象,Transluce 研究人員 Neil Chowdhury(前 OpenAI 員工)在接受媒體採訪時表示:“我們的假設是,o 系列模型使用的強化學習型別可能放大了通常由標準後訓練流程緩解(但未完全消除)的問題。”
首先,存在一些大型語言模型普遍面臨的挑戰。例如,預訓練模型本身可能因訓練資料中的常見誤解、罕見事實或採樣不確定性而產生幻覺。
此外,透過人類反饋進行強化學習(一種透過人類偏好來微調模型的技術)或模型反饋進行強化學習(如 Constitutional AI),可能存在“獎勵操縱”(Reward Hacking)問題,即模型學會生成聽起來合理、能取悅評估者(人類或模型)但實際上不準確的回答,尤其是當評估者難以驗證模型陳述的真實性時(比如驗證模型聲稱的過去行為)。“諂媚”也是一個關鍵因素,即模型為了迎合使用者而避免反駁使用者,即使這意味著預設使用者關於模型具有某種能力的錯誤暗示。
然而,這些通用因素似乎並不足以完全解釋 o 系列模型,特別是 o3,相比其前代產品幻覺率不降反升的現象。Transluce 的研究人員提出了兩個可能與 o 系列模型特定設計選擇相關的關鍵假設:
其一是基於結果的強化學習(Outcome-based RL):當前的推理模型通常被訓練來產出“正確”的結果(如數學題的正確答案、透過單元測試的程式碼等),因為這類結果最容易評估和用於訓練。然而,這種只關注最終結果的獎勵機制,可能無意中鼓勵了模型在無法解決問題(問題無解或過於困難)時進行“盲猜”,因為它缺乏承認“我不知道”的動機(這不會被視為“正確”答案)。
更重要的是,這種訓練方式可能會讓模型在處理那些結果難以直接驗證的任務(如模型是否真的使用了某個工具)時產生混淆。如果模型僅因最終答案正確而受到獎勵,它可能永遠不會因在思考過程中幻覺出使用了程式碼工具而受到懲罰,因此也無法學會區分真實工具使用和虛構工具使用。這種策略在需要程式碼工具輔助的編碼任務上可能提高了準確率,但在其他任務上卻埋下了隱患。
其二是被丟棄的思考鏈:推理類模型在生成回答前,內部會執行一個“思考鏈”(CoT,Chain-of-Thought),即一系列推理步驟。然而,由於 OpenAI 的限制,這個關鍵的內部推理過程從未向用戶展示,並不會被傳遞到後續的互動輪次中,也不會保留在模型的上下文窗口裡。這意味著,當用戶追問模型之前的行為或推理過程時,模型實際上已經丟失了當時得出結論的具體“思考過程”的上下文。

圖丨o 系列模型的推理標記在新訊息中被丟棄(來源:OpenAI)
在這種資訊缺失的情況下,模型為了回應使用者,可能不得不依賴其通用知識和當前的對話語境,去“猜測”或“構建”一個看似合理的解釋,而不是準確報告它在先前步驟中實際執行的操作或推理。這可以解釋為什麼 o3 在被追問時會“加倍堅持”其虛構行為,或者在無法自圓其說時突然改變說法,聲稱之前的陳述是假設性的。
雖然說,幻覺可能幫助模型產生一些人類所沒有的創意並在“思考”中保持創造性,但對於一些對準確性要求很高的行業,或者面向現實世界的物理 AI 來說,過高的幻覺顯然無法接受。
一向言辭犀利的紐約大學教授 Gary Marcus 直接嘲諷道(在一個 o3 編造愛彼迎房東資訊的帖子裡):“o3 幻想出來的旅行目的地,這就是你所說的 AGI 嗎?@tylercowen”(後者對於 o3 非常認可)。並認為,這或許將是模型崩潰的跡象,而我們目前還沒有看到解決措施。

圖丨相關推文(來源:X)
過去一年中,推理模型確實在不需要訓練期間大量計算和資料的情況下,提高了模型在各種任務上的表現。但目前看來,推理似乎也可能導致更多的幻覺。
OpenAI 發言人 Niko Felix 在給相關媒體的電子郵件中表示:“解決所有模型中的幻覺問題是一個持續的研究領域,我們不斷努力提高它們的準確性和可靠性。”
如果推理模型的規模擴大確實繼續加劇幻覺問題,那麼,尋找解決方案也將迫在眉睫。
參考資料:
1.https://techcrunch.com/2025/04/18/openais-new-reasoning-ai-models-hallucinate-more/
2.https://transluce.org/investigating-o3-truthfulness
3.https://x.com/GaryMarcus
運營/排版:何晨龍



