一張地震中被壓在廢墟下的孩子的圖片在網路上大肆傳播,令人揪心的畫面觸動著無數人的神經。
但是,圖片是假的。
2025 年 1 月 7 日,西藏日喀則市定日縣發生6.8 級地震,牽動著全國人民的心,社會各界紛紛聚焦救援進展,急切地想要為災區提供幫助。但這仍然防不住別有用心之人利用 AI 技術添亂。多張AI拼接、生成的災難圖便可以引導輿論,部分網友要透過手指、字樣等細節才發現真相。
從文生圖到文生影片,AI的普適性降低了使用門檻。但這絕不應該成為擾亂社會秩序的原因。天災無情人有情,大家關注西藏人民災區情況的同時,注意甄別網上資訊,避免被虛假資訊誤導。以下:
來源|科普中國
2025 年 1 月 7 日上午 9 時 05 分,西藏日喀則市定日縣發生 6.8 級地震。災情牽動人心,當地流傳出的各種救援畫面,更是令人揪心不已。然而,與此同時,也有一些不真實的內容趁機“渾水摸魚”,利用人們的同情心進行誤導。
比如下面這個廣泛流傳在“日喀則地震”影片中的圖片——一個戴帽子、被壓在廢墟下的小孩,其實就是由 AI 生成的。

據“全民較真”公眾號查證,它最早出現在一個叫“ AI 小芭芘”的賬號 2024 年 11 月 18 日的短影片中,作者也聲明瞭“內容由 AI 生成”。仔細觀察圖片紅圈的部分,也可以看到這個小孩的左手有 6 根手指。

不光是這張圖片,還有一些標著“日喀則地震”的圖片也並非是現場圖。比如這張“在廢墟中媽媽用身體為孩子頂住壓力”的圖片,評論區還有人說“目前已經救出,其母親多處骨折還是平安無事”,對於不明真相的路人很容易相信確有其事,但只要截圖後選擇“識別圖片”,就能在同平臺上看到 2022 年就有創作者釋出,當時還是“一張照片一個感人故事”,明顯是藉由 AI 或舊圖重新拼接,故意混淆視聽。





平臺上疑似使用了AI生成技術的圖片,有些會由作者或平臺標註提示,但有些沒有。圖源:網路截圖
以前我們都說“有圖有真相”,但隨著 AI 的發展,有圖也未必有真相。尤其是在出現重大災情、重大事件的時候,難以避免有人利用人們的同情等情緒,利用 AI 的文字和影像生成功能,編造虛假資訊、博取流量。
今天,我們從技術角度來剖析一下此類事件,並呼籲大家提高警惕。
1
AI 技術愈加成熟
造假門檻越來越低
AI 生成被壓在廢墟下孩子的圖片,這背後涉及的是生成式人工智慧技術,以文字到影像生成模型(Text-to-Image Models)為核心。這類技術透過解析使用者輸入的文字描述,將語義資訊轉化為逼真的影像。
其原理基於擴散模型(Diffusion Models)或生成對抗網路(GAN,Generative Adversarial Network)。擴散模型是基於機率模型,在每一步迭代中將噪聲影像調整為更加符合輸入描述的形態。例如,輸入“被廢墟壓住的孩子”,模型會解析關鍵詞(主體、情感、環境等),並分步驟新增廢墟、灰塵等元素,使影像逐步逼近最終的文字描述。
生成對抗網路是透過生成器和判別器的對抗訓練生成高質量影像。生成器根據文字描述生成影像,而判別器判斷生成的影像是否真實。透過不斷的對抗,模型最終生成高度逼真的場景。

一網友用 AI 輸入文字生成的圖
隨著 AI 影像生成工具的普及,普通使用者無需技術背景,只需輸入文字即可生成相關影像,極大降低了濫用門檻,很容易引發爭議。尤其是生成災難影像,不僅可能製造恐慌,誤導公眾,還是對真實災難和受災者的褻瀆。
更可怕的是,如果別有用心的人利用 AI 技術生成一些諸如恐怖襲擊影片、災難事件或大規模衝突的影片,還可能引起群眾恐慌,導致不理性的群體行為甚至社會動盪。
2
AI 造假的負面影響遠比想象中大
如何識別和檢測?
隨著 AI 造假技術的不斷發展,那些建立在“信任”基礎上的社會秩序正面臨前所未有的挑戰。
首先,社會資訊的真實性可能崩塌。如果虛假資訊以高度可信的方式呈現給社會公眾,操縱大眾心理、大眾情緒和大眾預期,會引發廣泛的社會不信任,公眾將不再信任新聞、名人言論或商業宣告,甚至可能引發市場動盪和社會恐慌。
而長期接觸虛假資訊,可能讓公眾在真真假假中迷失自我,從而做出比較極端的選擇。因為如果長期無法分辨真偽,他們要麼相信一切,要麼不信任一切,其結果是產生“信任衰退效應”。而信任的崩塌,對於一個健全社會的危害,不言而喻。
其次,司法系統也會面臨危機。偽造的音影片證據可能干擾司法判決,削弱法律的權威性。此外,商業領域也可能受到嚴重衝擊。虛假的決策宣告或談判內容可能導致錯誤決策和經濟損失等等。
回想網際網路早期咱們經常說的是“有圖有真相”,P 圖的多了以後就成了“有影片有真相”,到了現在已經成了“有影片也不一定有真相”,這個過程不過用了 20 年。
此外,很多 AI 生成的文字、圖片、影片,將摻雜在真實資訊中間,影響我們的搜尋結果,也就更容易出現前文中所說的將AI生成的內容當成真事的情況。
那麼,如何識別 AI 造假內容呢?
製作不夠精良的 AI 造假影片、圖文用肉眼就可看出異常。例如,人物表情僵硬、面部邊緣模糊、背景的過渡不自然、人臉的光影效果與周圍環境的光線情況不符、手指扭曲或手指數量不對等。但是,隨著技術的進步,這些異常特徵越來越少,肉眼分辨也會越來越難。
這種情況下必須透過技術檢測、法律監管、公眾教育和平臺審查等方法來防範 AI 技術的濫用,尤其公眾,一定要認識到 AI 造假的危險性,並提高警惕。比如,去信任那些權威機構或有權威機構背書、聲譽一貫良好、出錯也能自己糾錯的信源;對於任何來源可疑的內容,我們都要保持合理的懷疑,尤其是打算根據這些資訊採取進一步行動的時候。
面對災情,我們能理解社會公眾心繫災區,為受災群眾擔憂的心情。但我們也需要警惕某些不懷好意的人利用社會公眾的這種心情,透過AI技術偽造內容,騙取同情,套取流量,甚至做出更出格的、有違公序良俗的事情。
大災面前有大愛。廓清真相,明辨真偽,避免受到假圖片、假資訊的誤導,讓謠言無所遁形,才能讓大愛更順暢地傳遞!
參考資料
[1]《西藏日喀則地震,這個被壓在廢墟下的小男孩居然是AI生成的丨熱點較真》
https://mp.weixin.qq.com/s/uG-N5X5H8G8khdmm3OiAgA
[2] 《防範化解意識形態領域重大風險》王華著 國家行政管理出版社
策劃製作
作者丨科普中國新媒體
稽核丨於暘 騰訊玄武實驗室負責人
於乃功 北京工業大學機器人工程專業負責人,北京人工智慧研究院機器人研究中心主任,博士生導師
策劃|楊雅萍
責編丨林林、丁崝、何通、楊雅萍
審校|徐來
經緯張穎:2023,不只克服困難而是習慣困難
經緯張穎內部講話:2024,四大關鍵決策
經緯2023年終盤點:Adaptability is the key to thriving
