太陽底下沒有新鮮事,生成式 AI 的本質決定了,AI 有機率生成看似合理但不正確的內容。但當 AI 越來越能自圓其說,越來越多的使用者將 AI 生成的答案奉為圭臬,越來越多的有心人故意用 AI 編造事實,那麼 AI 幻覺的影響,也就更加無法想象。本就存在很多空白和創造空間的時事歷史、社會熱點,已經成了 AI 幻覺的重災區。AI 拿捏文筆和故事,但容易編造歷史AI容易產生幻覺,是一個客觀事實。文筆出眾的 DeepSeek,同時也有著高幻覺率。根據 Vectara HHEM 的 AI 幻覺測試,DeepSeek-R1 的幻覺率達到 14.3%,遠高於 DeepSeek-V3 的 3.9%。
我這般咬文嚼字,確實有些為難 AI。為什麼大模型有幻覺呢?這是生成式 AI 的預測機制決定的。大模型不是資料庫,它們學習的是語言模式和機率分佈,而非明確儲存事實,預測「下一個詞最可能是什麼」,而不是查詢「這個事實是否正確」,它們也並不理解,輸出的資訊是否是真實的。而在創意寫作時,模型被激勵發揮創造性,為了讓故事流暢,模型會主動「填補空白」,在歷史記錄不足的地方創造場景和對話,不會明確區分「我確定知道的歷史事實」和「為了故事合理而假設的情節」,又增加了出錯風險。AI 出錯很正常,但被有心人利用,就是另一回事了。歷史博主@知北遊就遇到過這樣的糟心事,一個網友發給她 AI 編的文獻資料,行文風格符合當時的年代,直到她發現時間人事對不上,並動用線下的人脈去驗證,才肯定都是偽造的。
圖片來自:豆瓣@知北遊每個人物的一生,都是歷史的一部分。然而,一種使用 AI 的方式,已經打破了基本的底線。每當明星過世,會出現很多的紀念文章回顧他們的職業生涯,但其中不乏用 AI 渾水摸魚的。比如寫方大同的這篇,行文一股 DeepSeek 味,「最後一條微博」的內容明顯是和現實不符的事實錯誤,文末甚至明目張膽地提及,參考了材料,但進行了文學化改編,揣摩了人物的心理活動。
然而,可以想象,以後產出這類資訊的速度只會越來越快,越來越多的營銷號抱上 AI 的大腿張口就來,同時,辨別的成本也會變得越來越高,因為我們不可能在每個領域都是專業人士,總有一款虛假資訊適合你。AI 的答案不等於知識,追溯源頭的事實核查成了剛需DeepSeek 的爆火,真正地讓很多使用者知道和用上了生成式 AI,同時出現了一個奇怪的現象:認為 AI 說的就是對的,熱搜上隔三差五地出現以 DeepSeek 為主語的熱搜,替代了從前的「專家說」。
大模型給出的資訊不等同於知識,輕信 AI、將 AI 作為權威的結果是,不走心的人類容易上當受騙。最近就有一個現身說法的例子,上海譯文出版社的陀思妥耶夫斯基精選集,推廣文案裡引用了「魯迅」的評價,但這句話並不是魯迅說的。博主@斯文稗類查證了一番,雖然沒有原始出處,但一個模擬魯迅的文心智慧體的回答裡,提到了這一句。
然而,以訛傳訛,傳的人多了,假的也就成真的了。這條所謂的「名言」已經汙染了網際網路,去問 AI 搜尋,AI 搜尋認為是魯迅說的。
如果虛假資訊是有意為之的,那麼危害就更加微妙。追蹤新聞網站可靠性的NewsGuard,發現了一種引導輿論的新方式:透過大量虛假資訊滲透 AI 模型的檢索數據,從而影響這些模型對特定話題的回應。他們調查的一起事件中,AI 引用錯誤資訊的機率高達 33%。
這也說明,雖然加了聯網搜尋之後,可以降低 AI 的幻覺,但也並不是絕對的。
聯網搜尋可以讓 AI 獲取即時資訊,克服知識截止時間的侷限,對於模型訓練資料中罕見的主題,也能獲取更準確的資訊,但它也引入了新的問題,如果搜尋到的資訊本身就是錯誤的,AI 可能會放大這些錯誤,並且難以充分評估檢索內容的可靠性。AI 固然能提高效率,但查詢資料這件事,反而應該變得更謹慎。我們需要更在意,某篇文章是誰寫的,資訊的最早出處是哪裡。更值得警惕的,是 AI 改變了獲得情緒價值的方式AI只是工具,它所導致的問題,根源在於人類自己。生成式AI之前,胡編亂造的資訊也並不少,AI起到的作用是,讓真假參半的內容生產得更快、成本更低,甚至行文更加有模有樣,質量高於很多營銷號內容的下限。AI 幻覺,反過來看便是 AI 的創造力。或者,我們可以將 AI 幻覺理解為「有邏輯的合理補白」。它的幻覺內容,通常符合語言、邏輯、知識的一般結構,基於訓練資料分佈,填補了資訊空白處的「最可能內容」。這不禁讓我聯想,歷史有時候比想象的還荒謬、還沒有邏輯,不能以常理揣度,鍾會為什麼反了,曹丕為什麼學驢叫,爾朱榮怎麼會被元子攸刺殺了……AI 的補白,或許就是某種平行時空的可能性、某種歷史的如果。
AI 提供答案的即時性、吐出各種文體的創造力,總讓人著迷。它是很多人的焦慮來源,卻也是方便快捷的告慰渠道。這也提醒著我們,警惕一個變本加厲的「後真相時代」。「後真相」指的是,客觀事實在塑造公眾輿論方面的影響力,反而低於訴諸情感和個人信仰的內容。它被《牛津詞典》評為 2016 年年度詞彙,至今依然適用,甚至變得更加準確——AI 內容寫得出彩,就存在被傳播的可能性,真實與否反而顯得不重要了。當 AI 可以用更快的速度製造不限量的內容,更輕鬆,更無痛,更真假難辨,更容易讓人高度依賴單一的資訊獲取方式,比任何的造假資訊更值得我們警惕。但這並不是 AI 的問題,容易失真的鏡子裡,照見的還是人類對於情緒價值的渴望。