2025.07.04

本文字數:1313,閱讀時長大約3分鐘
作者 | 第一財經 劉曉潔
一條關於闢謠和道歉的新聞,最終卻是AI幻覺帶來的謠言,這是AI時代的荒誕現實。
7月3日,一則《演員王一博案,判了》的新聞發酵,文章內容提及,人工智慧公司DeepSeek因內容稽核疏漏,就關聯不實資訊向演員王一博道歉,還援引了刑事判決書。隨後,#DeepSeek向王一博道歉#一度衝上熱搜。
目前這一新聞已被刪除,但仍然引發大量轉載。
上述文章提到“人工智慧公司DeepSeek釋出正式道歉”,並提及“宣告”一詞。但第一財經查閱了目前DeepSeek所有官方渠道的賬號,包括官網、公眾號、知乎、小紅書、海外的X等,都未發現有新的動態。
第一財經也向公司進行了求證,但截至發稿,未收到任何回覆。
僅從新聞事實來看,網路流傳演員王一博的訊息,已被經紀公司澄清,法院判定系謠言,而聲稱DeepSeek為傳謠道歉,則有諸多的不合理之處。此次假新聞的資訊中沒有任何一句明確指出DeepSeek的道歉渠道,宣告中所提及的法律判決書,在中國裁判文書網上檢索顯示無資料。
追溯“道歉”新聞源頭,或許來自於一則社交媒體中的帖子,但看圖片內容可知,道歉的主體是“AI聊天助手DeepSeek”。

值得一提的是,就在這些內容的下方,就有顯著提示“本回答由AI生成,內容僅供參考,請仔細甄別。”的字眼,但最後,這一由AI生成的道歉宣告,在傳播時逐漸演變成DeepSeek這家公司的道歉宣告,並被多家媒體傳播。
AI生成的幻覺問題並非新鮮事,但最後演變成被廣泛傳播的新聞,值得引起重視和思考。
幻覺一直是大模型的難題,AI會編造看起來合理或可信的資訊,但實際上是在“胡說八道”,這種缺陷的根源來自技術侷限和訓練機制,大模型本質是基於統計機率的文字生成器,透過海量資料學習詞語間的關聯規律,而非真正理解事實。
此外,若訓練資料或網路充斥錯誤資訊,模型也更有可能輸出錯誤答案。導致典型的“Rubbish in, Rubbish out”(垃圾進,垃圾出)效應。
在第一財經詢問DeepSeek關於AI的幻覺時,它給了一個有趣的比喻:大模型像戴著碎鏡片的先知,鏡子(訓練資料)裡有什麼它就反射什麼,但鏡片破損處(資料缺失)就會自己用彩色玻璃填補(生成幻覺)。
實際上,這一年隨著大模型能力的提高,幻覺問題有所緩解。此前5月底,DeepSeek釋出了新版DeepSeek R1,官方提到專門針對“幻覺”問題進行了最佳化,更新後的模型在改寫潤色、總結摘要、閱讀理解等場景中,與舊版相比幻覺率降低了 45%-50% 左右。
此前DeepSeek的幻覺率並不低,也被不少使用者和開發者所討論。5月15日,SuperCLUE曾釋出最新一輪中文大模型忠實性幻覺測評結果,顯示此前的DeepSeek-R1模型幻覺率在21%左右,在測評的國內模型中排名第五。
目前看來AI幻覺仍然很難避免。AI往往會捏造人物、事件,或者偽造法律條文,需要使用者甄別。而對媒體機構來說,當AI的“碎鏡片”越來越難被一眼識破,作為資訊“把關人”的嚴謹性與責任感,在AI時代就變得更為重要。這起烏龍事件,是一面映照資訊生態脆弱性的鏡子。
最後,第一財經也詢問了DeepSeek,是否就不實資訊向王一博道歉了,它目前給出的回覆是否認道歉,但生成的內容裡仍有很多幻覺。

例如稱“針對謠言DeepSeek法務團隊已啟動取證”,並提到可以透過郵箱“[email protected]”進行謠言舉報,但第一財經查詢官網發現DeepSeek官方並沒有這一郵箱,官方郵箱字首是“service”。