作者:達珍
來源:《得到頭條》
01
AI幻覺
為什麼值得特別重視?
按照咱們通常的想象,網上一直有假訊息,而且各級有關部門,都會常年地按月、按周,甚至按天釋出闢謠公告。這個防範力度相當大,咱們還有必要對AI造謠擔驚受怕的嗎?
這裡要話分兩頭。對於從事AI行業的人來說,AI生成的假訊息就像毒藥。
你看,訓練大語言模型需要語料,這個語料其實就是人們在網上留下的各類資訊資料。它們就像大語言模型的食物,AI吃得越多就長得越壯實。但是注意,AI能吃的僅限於人類的資料,假如喂AI生成的資料,效果就跟吃毒蘑菇差不多。其中的技術細節咱們就不展開了。
總之,做AI的人,自己其實是最怕AI謠言淹沒網際網路的。就像家長最害怕的不是有人搶劫,而是那個搶劫的和被搶的正好是自己家的親哥倆。
而對於多數不從事AI行業的普通人來說,AI謠言的可怕之處不在技術層面,而在於和真人騙子相比,AI在胡編亂造這個事上,產能極強,規模潛力極大,且絕對不會心虛。
首先,關於AI瞎編的產能。前兩天我在網上看到一個招聘寫手的公告,每篇稿子2000字,全程使用AI寫作,內容方向包括近代史、古代史。注意,重點來了,稿費,4元一篇。沒錯,是4元。我們假設,一個寫手總歸是不能賠錢幹活的吧?他一天的收入總得能養活自己吧?
這就意味著,假如這個4塊錢的價格能招到人,而且這個人每天要維持最低生活,一天哪怕只掙個100塊,那麼他就需要接25篇這樣的稿子。而25篇乘以每篇2000字,就是5萬字。這還是最保守的估計,一個人隨隨便便就能用AI一天編寫5萬字。
假如營銷號為了博取流量,鋪天蓋地地製造這樣的內容,那麼人們擔心的AI垃圾淹沒網際網路,沒準就真在一步步向現實靠近。注意,這可不是說營銷號都刻意造假,而是AI內容本身就可能會出錯。
根據《自然》雜誌的報道,2024年,各類AI在提到參考文獻時,出錯率在30%—90%之間,而且錯誤不限於論文標題、第一作者、發表年份等。
去年有媒體報道,OpenAI的自動語音識別系統Whisper,會憑空生成大段的虛假內容。美國有40個醫療系統使用Whisper,其中大約2.6萬Whisper經手的病歷出現了假資訊。目前,OpenAI已經建議使用者不要在關鍵任務中使用這個產品。
注意,AI瞎編的壞處,不僅僅體現在規模大,還在於它從來不會心虛。媒體人闌夕老師有個評價很貼切,他說,AI造謠的主觀惡意或許不及人類,但它的發揮能力卻是獨當一面。
麻省理工有兩位科學家,摩西·霍夫曼和埃雷茲·約耶裡一起寫過一本書,叫《隱藏的博弈》。裡面有個觀點大概說的是,為什麼壞人容易失敗?不僅是因為正義的力量很強大,也在於壞人自己會心虛。
換句話說,我們的大腦對於對錯是有個判斷的,你自己都覺得不對的事,大機率上做起來會缺少能量,會心虛,無法做到絕對的理直氣壯。這也是人類造謠的侷限所在。
但是,AI就不存在這個心虛感。一篇胡編亂造的文章,可以做到從頭到尾神完氣足,精力充沛,且全程押韻。這你受得了嗎?
02
面對這三類
問題,AI的幻覺率最高
AI為什麼會出現幻覺呢?主要有這麼幾個原因。
首先,資料本身的質量問題。大模型是基於海量資料訓練的,這些資料中原本就有垃圾資訊。
比如,醫學、金融等領域的過時論文,都會導致大模型輸出錯誤結論。而且大模型的語料是有時間節點的,有些大模型的訓練資料滯後,對於最新發生的事情就會胡編。
其次,也和大模型的訓練方式有關。
大模型的訓練是基於打分反饋。也就是大模型輸出一個結果,然後有個類似打分器的軟體,對這個結果打分。換句話說,大模型追求的從來都不是準確,而是高分。它本身並不知道什麼是準確。
那麼,怎麼得高分?這就跟寫作文一樣,即使你對這個話題一知半解,只要你文筆優美地寫夠800字,分數總不會太低。這也是為什麼大模型面對任何問題,不管知道不知道,都必須要像模像樣地寫出一堆字。
最後,既然大模型追求的是高分,那麼它理論上,就存在刻意討好打分者的可能,它可能會順著你說。在一些問題上,你怎麼引導它,它就可能會基於這個引導來回答你。
那麼,現在市面上流行的大模型,誰的幻覺最嚴重呢?
美國加州有個公司叫Vectara,經常做這方面的測評。根據他們2025年3月的最新測試,目前,幻覺率最低的是谷歌的Gemini 2.0 Flash,是0.7%。Open AI的GPT-4o的幻覺率是1.5%。而DeepSeek V2.5的幻覺率是2.4%。
而前段時間,清華人工智慧學院也釋出了一篇報告,題目是《DeepSeek與AI幻覺》。他們發現,在不同的提問模式下,大模型出現幻覺的機率也不一樣。
比如,針對隨機生成的提示語,DeepSeek-R1的幻覺率最高,達到3%,然後是DeepSeek-V3和阿里的Qianwen2.5-Max,幻覺率都是2%,而幻覺率最低的是豆包,幾乎沒有幻覺。
而針對事實性測試,DeepSeek-V3的幻覺率是29.67%,Qianwen2.5-Max的幻覺率是27.67%,DeepSeek-R1的幻覺率是22.33%,豆包的幻覺率接近19%。
同時,研究者發現,面對這麼三類問題,AI的幻覺率最高。
第一類是,知識邊界模糊的問題,比如預測未來事件;
第二類是,情感驅動的場景,比如安慰性回應;
第三類是,特殊領域相關的問題,比如醫療診斷和金融預測。
03
怎麼對抗AI幻覺?
那麼,面對這些AI幻覺,我們能夠做點什麼呢?這就是咱們要說的第二點。
首先,規則建設。針對AI幻覺,很多機構都在試圖透過制定規則來解決。
比如,今年2月,美國摩根路易律所釋出公告,一旦發現旗下律師使用了AI編造的假資訊,就馬上解僱。再比如,今年2月,國內期刊《詩刊》釋出宣告,一旦發現有人用AI投稿,馬上列入黑名單。在今年3月的全國兩會上,科大訊飛的劉慶峰還作為人大代表提出議案,應該建立安全可信、動態更新的資料庫,儘量避免大模型產生幻覺。
其次,技術層面的解決方案。
比如,世界模型。世界模型也許沒辦法完全消除幻覺,但起碼它理解物理世界的規則,因此有世界模型介入後,AI大機率上不會給出違揹物理規律的回答。
再比如,RAG,也就是檢索增強生成。像DeepSeek的聯網搜尋,就屬於這一類。一旦RAG介入,大模型在回答之前,就會多一步全網即時檢索的環節,這能幫它蒐集到最新資料,並且列出資訊源,方便使用者馬上核實。比如DeepSeek R1,聯網搜尋狀態下,在通用性測試中的幻覺率幾乎是零。
最後,個人操作層面。我們也可以透過改進使用方式,來避免AI幻覺。
比如,大模型協作,使用幾個AI互相驗證。之前清華的研究團隊曾經試過,問某個大模型,《水滸傳》中李逵為什麼要大鬧五臺山?答案是,因為李逵喝醉誤闖了五臺山。但這個時候,假如讓其他AI再稽核一遍這個回答,它馬上就能發現問題。
再比如,在提示詞上下功夫。透過圈定時間、知識範圍、領域等方式,約束大模型。打個比方,你可以問:“作為臨床醫學專家,基於2025年之前的公開學術文獻,請列舉FDA批准的5種糖尿病藥物。”再比如,增加對抗性提示,也就是讓大模型自己稽核自己,給不確定的地方主動打上標記。
最後,回到使用AI的方式。之前萬維鋼老師曾經給過一份叮囑,在這裡分享給你。這或許可以幫我們掌握與AI協作的邊界感。
AI能夠生成標準化文字,但不能替代你的個性化表達。AI能幫助你填補知識空白,但不能保證所有資訊都絕對正確。AI能加速資訊整理和篩選,但不能快速程式設計你的大腦。AI能提供決策建議,但不能承擔決策責任。AI能把理論用於不同的應用場景,但不能取代人的獨立意志和真實體驗。
總之,AI是強大的工具。它最大的問題,就是它不是你。



點選底部“閱讀原文”檢視更多
在職“MBA/EMBA/DBA”課程
↓↓↓↓↓↓↓↓↓↓↓↓