看完這些AI假新聞,我轉發了N個家族群

⭐️歡迎關注預約“新榜和ta的朋友”系列直播
“你可以在網上看到很多話,一句是我說的,還有千萬句都是我說的。”——魯迅
或許還有一些,是AI說的。
過去,很多假新聞可能是透過傳統剪輯工具進行後期修改的,而現在,生成式AI正在成為虛假資訊傳播的主力軍。大量虛假照片、影片、GIF圖充斥著網際網路。

最近,有一名法國女子被AI生成的“布拉德·皮特”照片騙走了83萬歐元(摺合人民幣約626萬)。騙子稱他需要錢做腎臟手術,因離婚個人賬戶還被鎖定了,該女子信以為真,誤以為自己一直和大明星保持聯絡。

再比如,前陣子,西藏地震後災區照片又一次將AI造假的話題推上了熱搜,AI生成的影片被“張冠李戴”,變成此次震後的影片圖。
儘管AI技術無處不在,網友們也越來越擅長辨別AI生成的內容,但事實上,真正成功欺騙大眾的影像,往往是那些經過“精心偽造”的影像。
我們整理了2024年傳播度較高的十大AI假新聞事件,並分析了其中的作假手段,希望能夠幫助大家有效分辨AI生成的虛假內容。

 “三界假頂流”:

AI雷軍、AI胖東來、AI張文宏

誰能想到,科技圈、醫療界、食品區的“頂流”們都被造假過。
2024年10月,雷軍的AI語音片段刷屏網際網路。“雷軍”用熟悉的口音精準吐槽:“這遊戲做成這樣,絕對是來搗亂的。”
因為語氣和雷軍本人十分相似,不少網友都以為是雷軍親自下場銳評。無獨有偶,網際網路上還出現了用AI合成於東來的聲音,聲音特徵也與真人無異。
2024年12月,張文宏醫生“被AI帶貨”了。只見影片中的“張醫生”正襟危坐,反覆介紹一種產品,聲音聽起來也很像本人。
這樣以假亂真的AI合成技術讓不少名人明星深受其擾,深度偽造也成為了AI造假的現象級案件。
大多數AI換臉、換聲案件都可以從面部入手來辨別。比如,觀察人物面部表情是否自然,有沒有光影出現。檢查嘴部周圍的紋路是否模糊,嘴唇周圍細節減少很可能是AI的痕跡。另外,只會重複說一句話,沒有連貫的語句就要當心是AI換聲的原因。

成熟的3A造假團隊

從靜態圖片到動態影片,從虛假文字到栩栩如生的模擬聲音,甚至2024年還出現了成熟的3A(AI寫稿、AI錄音、AI影片)造假團隊。
2024年6月2日,浙江警方因一則關於上虞工業園區的不實火災訊息,破獲了一起利用AI製作虛假影片散佈網路謠言的非法謀利的案件,據稱該團伙僅有3人,卻在一個月內使用AI生成併發布了3000個以上的虛假影片,散佈謠言博取流量。
2024年1月,江西警方也曾因一條“西安爆炸”異常流量假新聞抓獲了一個利用AI技術造謠團伙,該團伙每日量產4000-7000條AI文章,真假難辨。
針對AI文字生成內容,現在也有專門的檢測工具,比如騰訊上線了文字檢測工具,將檢測文字與大模型預測內容進行重疊度對比,來推斷文章的AI生成機率,幫助使用者分辨。

三隻羊的“財色”錄音門

2024年,知名網路主播“瘋狂小楊哥”及其創立的三隻羊公司因多起事件引發公眾關注,特別是涉及AI技術的偽造錄音事件,也是2024年度AI領域的重要案例之一。
事件起因於一段網路熱傳的錄音,內容涉及三隻羊公司董事長盧文慶的不當言論。錄音曝光後,盧文慶及公司形象受到嚴重質疑。
警方調查發現,這段錄音系由25歲的王某某利用AI語音合成技術偽造。王某某透過AI工具克隆了盧文慶的聲音,僅憑約30秒的錄音片段,即生成了以假亂真的虛假錄音。

批次生成的俄羅斯美女,

拿捏中國網友

Olga Loiek是一名烏克蘭網紅,2024年3月,她被“換臉”“換聲”後出現在中文網際網路上。
在中國,Olga叫“娜塔莎”,從烏克蘭人搖身一變成為了俄羅斯人。她熱愛中國的美食和文化,想嫁個中國男人,還擁有超20萬粉絲。
更離譜的是,抖音上還有一大群“俄羅斯美女”,用著“Olga Loiek”的臉和聲音,自稱在中國生活多年,希望嫁給中國男人,然後開始帶貨😅。
這些批次生成的俄羅斯假AI美女們,因高顏值拿捏了不少中國網友。甚至有網友在評論區感慨,“好不容易心動了,你卻告訴我她是AI”。

馬斯克在網際網路既是人生導師,

還是投資專家

2024年最容易被造假的名人當屬“馬斯克”。
網際網路上層出不窮的馬斯克語錄、馬斯克名言,馬斯克自己都不知道能在中文網際網路上輸出這些大道理。
但凡碰到這樣的雞湯圖片,都需要我們留個心眼
此前,還有網友利用Deep Live Cam製作了一個口型與聲音都高度吻合本人的AI馬斯克,併發影片表示手上有高回報的投資機會。
乍一聽“馬斯克講投資”很合理,這一虛假影片還騙到了一位美國老人67萬美元的退休金。
但值得一提的是,這個影片中,馬斯克的眼睛和眨眼節奏有問題。下次我們遇到影片的時候,可以先盯著人物的眼睛和麵部紋理進行判斷。另外,要警惕別隨便給陌生人轉賬。

永不會相融的海水

井水不犯河水,太平洋和北海(大西洋東部海灣)竟然有明顯分界線?
不知道大家有沒有刷到過這樣一條影片 ,內容顯示了太平洋和北海有明顯的分界線,並暗示兩者之間不會交融。這條AI生成的影片在TikTok上播放量超2000萬。有網友在評論區煞有介事地表示,兩者海水密度不同,所以不相融。
細心的人如果求證一下就會發現,北海附近是大西洋,太平洋離它十萬八千里,怎麼會交匯?😓
分辨AI假新聞的最樸素的方式,往往就是從我們已知的、確定的常識入手,進行區分。
颶風襲擊迪士尼
2024年10月,佛羅里達州奧蘭多的迪士尼世界因颶風風暴登陸前出現的龍捲風而關閉。與此同時,有關於迪士尼被海水淹了的新聞也在X上瘋傳
我們怎麼判斷這些圖片是假的?首先,這個城堡根本不對。和真實的城堡進行一下比較,就會發現城堡兩側的建築完全不符。
但其實根本不需要知道真正的灰姑娘城堡是什麼樣子的,就可以判斷它是假的。我們只要放大城堡附近的塔樓,就可以看到它們的角度非常奇怪,並且城堡外表面沒有磚塊,是光滑的。
除此之外,還有一張照片顯示迪士尼人物布魯托正抱著一個孩子走出園區。但這張圖上,小孩的面部表情不清晰,會更容易區分出是AI生成的圖片。
實際上,這種“張冠李戴”已經成為AI假新聞的常用做法。當一個事件發生時,用AI生成的內容充當現場照片。比如,颶風過後,這張小女孩在救生艇上抱著小狗哭泣的圖片,也是這一路數。

美國擁有好萊塢山?

2024年,網友“Mimi Ehis Ojo”在Facebook上釋出了一張好萊塢山的圖片,鬱鬱蔥蔥的綠色山脈連線著洛杉磯的天際線。
雖然住在南加州的美國人立刻就能看出這是假的,但從未去過美國、不瞭解美國的網友還是被騙了,紛紛以為這是真的。
如果畫面看起來太乾淨,或者風格化嚴重,比如,好萊塢山的圖片很像從電影中截出的畫面,這都有可能是AI造假的。

特朗普親自下場,讓真假撲朔迷離

2024年美國大選前,特朗普在社交媒體上分享了一系列圖片,其中包括一張明顯由AI生成的斯威夫特圖片,上面寫著“泰勒希望你投票給唐納德·特朗普”。
如果這張圖片單獨出現,不少網友就能分辨出是AI生成的,但特朗普親自轉發了這些AI圖,便讓真假撲朔迷離。
泰勒·斯威夫特隨後在Instagram上宣佈,她將在2024年11月的美國總統選舉中投票給副總統卡馬拉·哈里斯(Kamala Harris)。她強調,對抗虛假資訊的最簡單方法是公開真實的立場,並呼籲粉絲註冊投票。

AI給湯姆·克魯斯拍了紀錄片

湯姆·克魯斯翻拍了2013年的《奧林匹斯陷落》?
2024年巴黎奧運會期間,有一部新電影《奧林匹斯陷落》宣稱自己重新邀請了阿湯哥重磅出演,並記錄了巴黎奧運會期間奧組委的腐敗事蹟。
這部電影共分為四集,每集9分鐘,開頭都有Netflix標誌性的音效和紅色的N動畫。“在這個系列中,你將發現全球體育產業的內情”,假冒的湯姆·克魯斯還在影片開頭如此說道。
但只要稍加註意,就能發現種種跡象表明這部電影不可信。首先,阿湯哥的聲音雖然逼真,但表述有些生硬。比如,他會重複一些臺詞,或者他的聲音會在沒有明顯原因的情況下突然中斷。
另外,在詞彙表達上也略有不同。第一集中的旁白提到了一場“hockey match”(冰球比賽),在美國,球迷們通常會說“hockey game”(冰球比賽),而不是“match”。
因此,文化或語言常識上的不合理也可以幫助判斷是否AI造假。

可以看到,2024年傳播度較高的十大AI假新聞主要與AI虛假圖片相關。
如果不經過人工精心修改,AI生成圖片中出現的錯誤機率依舊較高,比如經典的“六指”、部分肢體扭曲、人物神態異常等等。
我們對物理世界的常識和規律的瞭解,就是識別AI圖片最有力的武器如果能從這些細節處找到一些違背常識、違背解剖學的地方,那基本可以認定這是一張AI生圖。
AI生圖出現的手部、骨骼反常;圖片來自科普中國
小紅書上還出現了一批專門做AI圖片打假的賬號,幫助大家從光影、五官、眨眼等細節分辨AI圖。
隨著AI技術逐步完善,圖片造假的能力越來越出眾,有時僅靠肉眼已難以分辨。有報道稱,人們鑑別AI生成內容(圖片、聲音、影片)的綜合準確率僅有51.2%,接近人們隨機搖骰子的水平。
一些圖片的常識性錯誤隱藏在比較隱秘的地方,不容易直接判斷。此時,我們只能藉助AI檢測工具,用魔法打敗魔法。通常來說,這些工具可以辨別出AI生成圖片中的電子水印、隱藏的圖片特徵。
近年來也有許多技術從業者和學術機構致力於研發AI鑑偽技術,透過標記、追蹤、分析內容生成痕跡,來識別虛假資訊。
比如,長期研究AI倫理與反DeepFake技術的張欣怡帶領團隊開發了反向追蹤演算法,可以透過分析DeepFake影片中的AI生成特徵,還原偽造痕跡,並追蹤生成工具的來源。
此前,英國O2公司推出了AI聊天機器人“AI奶奶”Daisy,它能夠能即時偵聽和響應欺詐電話,聲音模模擬實老人,透過與詐騙者長時間交談,浪費騙子時間,阻止其詐騙行為。
在測試中,Daisy成功纏住眾多詐騙者,通話可長達40分鐘,網友們紛紛點贊,我們之前也進行了詳細的報道:《詐騙剋星“AI奶奶”來襲,騙子破大防,用AI反詐實在太爽了》。
此外,各大社交平臺也在逐步建立內容稽核機制,利用AI打假AI,相關行為規範標準也已在路上。
需要注意的是,現在還沒有一種100%能夠識別人工智慧生成內容與真實內容之間區別的方法。因此,最佳的建議是時時刻刻保持懷疑心態。
我們無法完全杜絕假新聞,但我們可以用理性和科學的方法來識別它,用智慧和規則去規範它。AI可能是催化劑,但人類才是決定未來方向的掌舵者。
作者 | 阿虎 王萌
編輯 | 捲毛
• 作為資料驅動的網際網路內容科技公司,新榜提供新媒體內容營銷和企業服務系列產品,助力中國企業數字化內容資產獲取與管理,服務於內容產業,以內容服務產業。
• 我們的客戶既包括騰訊、字節跳動、阿里巴巴、中國平安、比亞迪、京東、通威、貝殼、寶潔、歐萊雅、聯合利華、雅詩蘭黛、迪士尼等頭部品牌,也包括正在蓬勃成長的中小企業、新興品牌和MCN機構。面向企業的內容化組織建設,新榜提供從公域流量募集分發到私域內容運營建設的各項所需。
• “新媒體,找新榜”是我們的使命。憑藉全面穩定的新媒體內容資料產品和企業服務能力,新榜被評為國家級高新技術企業、上海市專精特新企業、上海數字廣告領軍企業,曾榮獲“全國內容科技創新創業大賽一等獎” 、“上海文化企業十佳”、“中國廣告新媒體貢獻年度大獎”等稱號,擁有多個傳播評估監測專利。瀏覽器搜尋新榜官網,獲取更多新媒體動向。

相關文章