AI造假逼真,“真”得趕緊還手

我們或許比過往的任何時候都更應強調“真實”的力量。
作者 | 裴思童
編輯 | 秦珍子
人類醫生漏診的怪病,人工智慧篩出來了,救人一命——上週網傳的一則故事,有上海某知名三甲醫院的名稱,有醫患的基本資訊,有病情進展的細節,看上去很真實,一鍵轉發很熱鬧。
我看完第一反應是驚喜。過去幾年,醫療一直是AI技術應用最廣、成效最多的領域之一,如訊息屬實,值得報道。結果我找醫院相關部門一核實,發現故事是假的。
我一時恍惚,看不清這嘈雜的輿論場,我們與真實的距離。
社交媒體網路讓資訊變得混沌難辨,這不是什麼新鮮話題。早在2016年,《牛津詞典》便將“後真相”列為年度詞彙,意即在假新聞與陰謀論當道的網路時代,事實讓位於情緒,理性讓位於偏見,真相已經不再重要,重要的是人們選擇相信什麼。
作為一名新聞從業者,我自認為擁有對資訊真偽基本的辨別力。但隨著AI技術的廣泛應用,我也時常為真假難辨的資訊所惑。
重新審視那條AI救人的謠言,我覺得它很像我曾經看過的一些由AI編造的訊息。如果某一次我不經核實就把AI提供的資料寫進報道,可能也會炮製出那樣的故事。
今年春節期間,曾有一篇DeepSeek創始人梁文鋒回應《黑神話:悟空》製作人馮驥的帖子在網際網路流傳,文風細膩、金句頻出,一時引發轉載無數。最終證實是假新聞,有人用AI生成了一篇一模一樣的文章。
過去一段時間,這樣的事情並不罕見。譬如美國加利福尼亞州發生山火,網傳“烈火吞沒好萊塢標誌牌”的照片;西藏日喀則地震,“埋在廢墟中的小男孩”引發熱議。這些由AI生成的圖片甚至引發公共媒體將之作為事實報道,誤導公眾對災情產生錯誤判斷。
假新聞並不新鮮,只是AI讓“造假”愈發“逼真”,也更加“易得”。2023年,浙江紹興警方曾抓獲一個利用ChatGPT製作虛假新聞的團伙。其中有一名從未接觸過電腦技術、僅有初中學歷的成員,利用AI自動生成影片素材,便能像流水線一樣批次生成假新聞,用時最短僅需1分鐘。2024年4月披露的另一則案件中,涉案人員使用AI寫稿軟體抓取熱點自動生成文稿,每日產出的文章數量可達19萬篇,流向6000多個自媒體賬號。
2025年年初,達沃斯世界經濟論壇釋出《2025年全球風險報告》,將“錯誤和虛假資訊”與武裝衝突、極端天氣、經濟對抗和社會極化列為2025年全球面臨的五大風險。
我認為,虛假資訊帶來的一種系統性風險就像“狼來了”,當我們的情感被頻繁欺騙,當我們面對每條資訊都要懷疑其真偽時,我們社會的信任系統會被快速消耗,個體感受力也會趨於麻木。公眾無力再辨別更多真假,剩下的便只有各自的立場。
與之相對,虛假資訊的傳播又大多都具有引導性。譬如,“後真相”成為年度詞彙的背景是,在當時的英國脫歐和美國大選中,網際網路上充斥著各利益方所製造的虛假資訊,對公眾的立場和注意力進行誘導。俄烏衝突事件中也充斥著大量由AI製成的虛假影片,服務不同的輿論目的。
更普遍的情況是,為了吸引流量,虛假資訊的製作方通常會製作獵奇、極端或煽動情緒的新聞,這一切都會在AI技術深度偽造的加持下進一步放大,令普通人更加難以抵抗。
也因此,我們或許比過往的任何時候都更應強調“真實”的力量。
對抗虛假資訊最簡單的方法便是及時公開真實的立場。在過去20餘年裡,在全世界範圍內,優質的深度資訊逐漸衰落。以美國的蓋洛普民意調查資料為例,過去20多年間,美國民眾對媒體的信任度一直在持續下降,直至2024年,僅有不到三分之一的美國人依然信任新聞媒體。
在混沌的資訊流中,為公眾提供準確、高質量的資訊,空前重要。“事實核查”和開設闢謠欄目不光是機構媒體的責任,很多熱點事件、虛假資訊的涉事主體,都有義務為公眾提供及時、準確的一手資訊。
個體也並非局外人。在一個深度媒介化的時代,“媒介素養”早已不是少數從業者的要求,而應該是一種公民素養。因此,許多教育從業者都在倡導將媒介素養教育納入基礎教育,尤其要針對偏遠鄉村的青少年開展。
我曾經採訪過一位鄉鎮中學教授職業生涯規劃的教師,她告訴我班內幾乎一大半的學生都想做“網紅”。社交媒體如此深入孩子們的生活,卻少有人能為他們提前注射防護“疫苗”。
媒介素養聽起來有點空洞,它的底層實際上就是獲取資訊、獨立思考的能力。
譬如,我們是否還能留有“慢資訊”的消費習慣。當我們看到一則訊息時,不要急於判定,而是花一些時間去思考,內容是否符合基本事實邏輯?是否有可靠的信源?是否可被多個獨立信源交叉印證?或者僅僅只是暫緩分享速度,給事實以逐漸顯露的機會。
我們是否能夠抱有一種更加理性、開放的態度,去接納和我們原有觀點不同的事實,而非讓立場和情緒先行,綁架我們對事實的判斷。又或者,我們也可以不必非要判斷,如果無法判定一則訊息的細節真偽,那麼保持沉默,不去為極化的輿論場助燃,或許也是一種選擇。
查閱資料時,我發現其實許多廣為流傳的AI假訊息並不難辨別。譬如,網傳西藏日喀則地震“被埋兒童”的照片,孩子有6根手指;網傳好萊塢燃燒的標誌牌,多了一個字母“O”;有的照片甚至還掛著AI生成的水印。有時,我們的常識和直覺,就是識別造假資訊的有力武器。問題在於,我們是否仍有能力保有這種知覺,而非不加審慎地接納網路提供給我們的所有資訊。
網路讓資訊極度易得的同時,我們也在逐漸習慣於感受媒介經手的現實,而非實感的現實;我們似乎也更習慣依賴外部的資訊決策,而非迴歸自身獨立思考。讓AI進一步深入生活、輔助思維決策時,我們需要警醒,這是否會進一步加劇我們對技術的依賴,減弱自身的思維能力。
不過,不可要求每一個人都具備資訊的甄別能力。
因此,許多行業專家都在致力於研發AI鑑偽技術,即透過標記、追蹤、分析內容生成痕跡,來識別虛假資訊。使用者將難以辨別的影像文字上傳至檢測工具,有機會快速得知它是否由AI生成。還有手機廠商直接在系統中內建了AI換臉檢測工具,可以在視訊通話中完成識別,提示使用者對方使用AI換臉的機率。
2024年3月透過的歐盟首個《人工智慧法案》,提到所有由AI生成的內容(影像、音訊或影片等)都要有明晰的標籤,以避免出現虛假資訊。目前,國內的部分社交媒體平臺,都在著手啟動治理體系建設,對識別為疑似AI生成的內容進行顯著標識,透過機制性的方法幫助使用者識別虛假資訊。
《後真相:關於真相的新戰爭及如何反擊》的作者馬修·德安科納曾說,後真相不是關於謊言的,而是關於人們如何認識、看待這些謊言的方式,是人們對謊言的回應,是人們的態度。
討論到最後,其實真相究竟如何,已經不是最要緊的事,更重要的是我們每個人願意去為此做些什麼。
– END –
中國青年報·中國青年網出品

相關文章