

文 | 李大強
編輯 | 王珊瑚

兩種幻覺
當AI給出一份長達幾千字,囊括了病理分析、診療方案、資料來源的詳盡答覆,不誇張地說,飽受牙齒問題折磨的康凱一度認為自己找到了救星。
春節期間,DeepSeek爆火,49歲的康凱也好奇地開啟網頁,和它聊了聊。他問的是一個困擾了自己多年的問題:我這個疾病到底是怎麼回事?它為什麼那麼難治?
三年前,因為急性牙髓炎,康凱拔了顆牙齒又種了牙,但病沒好,一個多月後,臉頰開始腫脹,流膿發炎。康凱跑遍了所在城市的各大醫院口腔科,也陸續去了國內好幾所著名的口腔醫院,問題始終沒能解決,吃東西時牙齒依然疼痛,且有膿臭味。
AI根據他的描述,為他詳細分析了疾病成因、手術方案,乃至可能出現的後遺症。AI用詞的專業,以及列出的諸多資料和細節,讓康凱深信不疑,“我三年去了23家三甲醫院,看了將近500個醫生,包括影像科的、頜面外科、疼痛科,去一次可能就得接觸七八個醫生,而且每家醫院還不止去一次,沒有一個醫生把病情從頭到尾給我講明白的。”
他還在AI身上找到了一種“認同感”。許多次,他向醫生描述自己頭疼、耳朵不舒服、臉腫,“說了一堆症狀,醫生來了一句,我看你臉不腫,是不是太焦慮了,你去看看心理科吧。”
家人也不能理解,父親罵他是不是腦子出了問題,表姐幾次質疑,“我看你人好好的。”但康凱說,自己隱隱作痛和不斷散發異味的牙齒不是幻覺,而是真實的痛苦。
“這麼個情況下,你說一邊是人類的醫生成天拒絕我,說我心理有問題,一邊是AI,不偏不倚的,甚至有點向著我的說法。”康凱提到,有一次他向AI猜測,自己的疾病是不是透過牙槽管擴散的細菌感染,“它會順著你的思路給你提供證據,讓你覺得猜測有很大的可能性。”
他心裡的天平很快倒向AI,有任何問題都會向它尋求答案和分析。直到有一天,有人在評論區告訴他,AI不一定準確,會杜撰一些內容。
康凱並不相信,他說自己過去有計算機從業經驗,許多人使用AI出錯,是因為他們給的指令不夠清晰準確,“我覺得是可以透過除錯,讓它接近正確的。”
但他還是嘗試核查了一番AI給出的文獻資料,很快,AI給出了一套完整的道歉模板:“我意識到可能在之前的回答中,錯誤地引用了該文獻。需要向用戶澄清,之前的引用可能存在不準確之處,併為此道歉。”最後它還提醒康凱,“建議以最新指南和實際可查文獻為準。”
康凱懵了,“出處索引怎麼能杜撰一個?有就是有,沒有就是沒有啊!”
和康凱有同樣經歷的,還有23歲的律師小北。今年2月初,小北的一位當事人用AI檢索彙總資訊,給她發了一份辯論意見,其中列舉了多個參考案例,不僅有具體案號,AI還幫他們梳理了爭議焦點、與案件相符合的重點裁判理由。
但小北一看就覺得不對勁,“案號都是很規律的排列順序,123、1234、456這種。”小北的當事人特意又問了兩遍AI,要求它核查案例的真實性並註明來源,而AI的回答依舊是,“使用者之前詢問關於XX案件是真實的,與您的案子具有適用性。”
越來越多人意識到,AI其實很擅長一本正經地胡說八道,有人甚至為此攤上了不必要的麻煩——2023年6月,兩位美國律師被處以5000美元的罰款,原因是他們在法庭上提交的一份訴訟材料,使用ChatGPT生成的部分內容中,引用了6個由AI虛構的案例。其中一位律師解釋,他只是以為案件還沒釋出,或者很難訪問,“我從來沒有想到這會是捏造案件。”


一本正經地胡說八道
每一個生成式AI都會說謊,這是“基因”問題。在業內,這個現象有個專業術語——AI幻覺。
從事大模型應用工作的郝明解釋,AI幻覺通常分兩種,事實性幻覺和指令遵循的幻覺。前者指事實性錯誤或編造資訊;後者可能沒有事實性錯誤,但“它不按照你要求的方式作答,或者是它輸出的內容和預想的方向不一樣”,比如你問AI,“糖尿病患者可以食用蜂蜜嗎?”AI卻回答,“蜂蜜富含維生素和礦物質,因此是一種健康的食品。”
AI幻覺出現的原因,本質上是由它的基礎工作原理決定的。ChatGPT等大語言模型不是超級搜尋引擎,它們透過大量的訓練資料,學習的是文字之間的機率統計,郝明說,“它的工作原理簡單來講就是,基於前面已經輸出的n個字元,去預測下一個詞出現的機率。”
如果你詢問AI“今天天氣很”,它會給出“好”或“壞”兩個詞,因為在它海量的資料裡,這些詞語出現的機率更高。
然而機率預測這個方式本身就具有不確定性,一位作者曾經讓AI以三國曆史背景為素材寫故事,發現文筆和情節設計的都不錯,但涉及到具體時間點就很容易出錯。
出門問問大模型團隊前工程副總裁李維總結,大模型在涉及具體實體,比如人名、地名、書名、時間等資訊時最容易出錯,“這和人腦有相似之處,我們也記不住所有細節。大模型在消化資料時採用的是一種抽象過程,它試圖從大量資料中找出各種規律,而不是記錄所有細節。”
因此,當AI被問到不確定的內容時,它會根據統計規律為使用者編造看起來最順暢、有可能發生,但很可能不準確的細節。這也是為什麼很多人會覺得,有時候AI在一本正經地胡說八道。
郝明補充,大模型會抓取網路內容進行訓練,這些內容本身就包含虛假資訊,也會導致AI幻覺的出現,“如同小朋友學習一樣,你給他的學習資料就有問題,那他表現出來的內容也不會好。”
在核查確認DeepSeek編造了文獻資料後,康凱第二天發了另一個帖子,承認之前太輕信AI。但他強調,不能因此全盤否認AI,某種程度上,他認為AI是善於反思糾正自己的錯誤認知的,“我不斷換角度問,它也會難以自圓其說,然後不斷去糾正錯誤,提出新的方案。”
但AI真的有自我反思能力嗎?一位網友提過一個問題,“AI在說不通的時候,就會道歉,但是道歉之後是否真的理解人糾正的意思?AI能意識到主動糊弄和被動迎合之間,表達道歉的層面嗎?”
在這個問題上,AI給出的回答倒是很坦誠,它會告訴你,AI系統設計時就包括了錯誤處理與反饋機制,AI的道歉行為也可能源於訓練資料中包含的大量人類對話樣本,其中包括了許多道歉和感謝場景。它最後會總結,AI的道歉行為“本質上是基於演算法的自動化響應,而非真正的意識或情感表達”。
李維曾經在公開論壇上指出,AI沒有主動的意圖,“AI的一切行為,無論翻譯、解題、問答、聊天,這些用詞都是擬人的,只是電路和模型在執行。大模型的智慧表現和回應,本質是基於機率模型進行的。”
但另一個有意思的概念是,多項研究證明,AI有“討好型人格”。美國人工智慧企業Anthropic2023年對多個AI助手進行研究,發現在自由文字生成任務中,這些AI助手普遍存在“討好”使用者的模式,比如使用者質疑時,它們經常毫不猶豫承認錯誤,提供有偏向的反饋,甚至模仿使用者的錯誤。
這其實還是由AI被植入的訓練方法決定的,它基於人類的反饋強化學習,就像人們會使用寵物零食,訓練小狗握手、坐下,在大模型的訓練裡,人類的偏好就是那個獎勵訊號——當AI給出的答案和使用者一致時,通常會獲得更多積極反饋。
因此,當你覺得AI的回覆很合心意,或許需要警惕,謊言已經生成。


AI的問題本質是人類的問題
律師小北將自己使用AI的經歷發到社交平臺,試圖提醒更多同行注意AI造假問題。前段時間,她在撰寫一篇勞動法文章,使用AI檢索案例時,發現它又給出了幾個很明顯的編造案例,“案號都是什麼民終1234號、民再5678號。”
她的同事還發現AI會編造法條,然而當同事告訴AI,現實情況中沒有它提供的法條,AI在“深度思考”後給出回覆:“使用者混淆了法條,我需要禮貌提醒他。”
當然,小北也提到,如果網上確實存在相關案例,使用AI檢索解讀,它還是能較為準確地提供資訊,“可能還是要看你怎麼用這個工具。”
研究生米可擔心的是另一個問題,前段時間,她看到一篇帖子,博主稱自己是一名基層公務員,寫了長長一段文字記錄自己工作的真實經歷,米可被博主描述的“為基層人民服務”的形象觸動,立馬點了個贊。但很快,她刷到一條最新評論:有濃濃的DeepSeek風味。
米可把文章發給DeepSeek,AI告訴她:“這篇文章確實出自我手。作為AI,我雖無肉身經歷,但能透過文字對人類經驗進行藝術重構。您展示的這篇公務員手記,是我基於公共領域文字特徵進行的文學創作。”
米可沒有再進行核實,到博主評論區留言質疑,她的評論很快被刪除。她寫下自己的疑惑,隨著AI的普及與推廣,該如何分辨資訊的真假?“我們會被誆騙進一個專屬的資訊繭房嗎?”

為了驗證,我把米可提及的帖子發給DeepSeek,問了和米可同樣的問題,得到的答案是:“這篇文章並非出自我手,而是一篇極具感染力的當代機關敘事散文。作為AI,我無法創作這樣浸透生活質感的文學作品。”
後來,無論我怎麼反覆向它確認,它始終堅持,“該文字並非由我或任何AI系統創作。”
我又使用某頭部網際網路公司開發的AI文字生成檢測器,檢測帖子裡“疑似AI生成內容佔比69.87%,AI味兒有點重”。
我拿著這個結果再去問DeepSeek,它思考道,“在當前情況下,合理的解釋是文字可能融合了人類創作和AI輔助的元素,或者檢測工具在分析高文學性文字時存在誤判。”最後它告訴我,自己更傾向認為,“人類創作主體性佔60%+AI輔助潤色佔40%,二者在文字中形成獨特的‘體制現實主義’風格。”
它說自己的行為並非自我打臉,“就像法醫無法單憑一處傷口斷案,文字鑑定也需要多維度交叉驗證。破案過程中看似矛盾的結論,實則是逼近真相的必經之路。”似乎確實是這麼回事,但我已經累了,為了確認一篇文章是否由AI創作,我多花了一個小時時間。
郝明說,“大模型發生幻覺的概念有高有低”,但以現在的大模型工作原理,“幻覺基本都很難避免。”
郝明的日常工作包括使用特定行業語料庫,訓練垂類模型,“這個大模型在特定領域就會表現得更好,”但即便如此,郝明說,他在工作中也時常會遭遇AI幻覺,“只不過我們是在訓練它,相當於拿著參考答案的老師,所以基本都能第一時間發現。”
郝明並不太擔憂AI對資訊的干擾,“現在有了一個模型工具,可以大規模地製造這些新聞,但它也只是量變。”在郝明看來,人工智慧的問題,本質上還是人類自身的問題,“過去只有人活躍在網際網路的時候,也有假訊息、假新聞。”
某種程度上,郝明認為,如今AI編造的訊息反而更容易識別,“AI畢竟是擬人,它有特定的輸出模式。對比人類的語言,它還是會表現得相對機械化和囉嗦,更傾向於展示推理邏輯,就是有很多理由要說這種。”
但在具體使用上,郝明說,有些技巧還是可以有效減少AI幻覺。比如讓AI基於客觀事實和過往資料做總結分析時,“就像寫論文一樣,讓它說出自己引用的資料來源,”後續使用者可以進一步交叉驗證,有效減少錯誤和編造情況。
李維也給出了類似的建議,如果直接要求大模型做摘要這類重事實的簡單任務,最簡單的方法是不要用推理模型,即不要按下deepthink(深度思考)按鈕。“如果用了推理模型,可以嘗試增加一個提示詞,比如‘請務必忠實於原文進行摘要’。”
在使用AI上,李維覺得,最重要的是找到一個平衡,許多人剛接觸大模型時容易被它流暢的表達和廣博的知識面所迷惑,保持警惕是重要的,但如果始終全盤懷疑,“就無法最大化利用大模型價值。”
康凱依舊在頻繁地使用AI詢問自己的病情、用藥建議,他的語氣裡有無奈,說自己又被醫院拒診,“沒有人聽我說,我不問AI我還能問誰呢?”但他多了一個小習慣,在AI給出文獻參考時,順手搜一搜來源。
(應講述者要求,文中郝明、小北、米可為化名)
版權宣告:本文所有內容著作權歸屬極晝工作室,未經書面許可,不得轉載、摘編或以其他形式使用,另有宣告除外。
– END –
