👆關注的人,領先不止一步👆

本文轉載自公眾號「量子位」
Deepfake(深度偽造),再度深陷輿論的風波。
這一次,用這項AI技術犯罪的嚴重程度被網友直呼是“韓國N號房2.0”,魔爪甚至伸向了眾多未成年人!
事件影響之大,直接衝上了各大熱搜、熱榜。


早在今年5月,《韓聯社》便通報過一則訊息,內容是:
首爾大學畢業生樸某和姜某,從2021年7月至2024年4月,涉嫌利用Deepfake換臉合成色情照片和影片,並在通訊軟體Telegram上私密傳播,受害女性多達61人,包括12名首爾大學學生。
僅是這位樸某便用Deepfake合成了大約400個色情影片和照片,並與同夥一起分發了1700個露骨的內容。
然而,這件事情還是Deepfake在韓國氾濫的冰山一角。
就在最近,與之相關的更多細思極恐的內幕被陸續扒了出來。
例如韓國婦女人權研究所公佈了一組資料:
從今年1月1日到上週日,共有781名Deepfake受害者線上求助,其中288名(36.9%)是未成年人。

而這個“N號房2.0”也是非常恐怖的存在。
據《阿里郎》進一步的報道:
一個與Deepfake相關的Telegram聊天室,竟吸引了220000人,他們透過篡改婦女和女孩的照片來建立和分享偽造的影像,受害者包括大學生、教師,甚至是軍人。不僅是受害者有未成年人,甚至加害者也有大量的青少年。
不僅如此,這次輿論的興起過程也是非常的drama。
因為肇事的韓國男性們(以下簡稱韓男)可以說是非常的猖獗,有輿論苗頭的時候,他們就會稍微“剋制”一下:

有些韓男對這件事的態度也是較為惡劣,甚至有初中男生開公開寫到“不用擔心,你不夠漂亮,不至於被Deepfake”這種話。

於是乎,韓國女性們(以下簡稱韓女)的反擊開始了。
她們將“陣地”轉向韓國之外的社交媒體,例如在X上,有人釋出了製作Deepfake學校的地圖:

還有韓女在微博中釋出“求救貼”:


隨著輿論在各大社交媒體上發酵,韓國政府也出面做出了表態:
目前已經有超過200個學校收到Deepfake影響;計劃將Deepfake犯罪的刑期從5年提高到7年。
據瞭解,韓國警方已成立特別工作組,專門應對深度偽造性犯罪等虛假影片案件,該工作組將執行到明年3月31日。
Deepfake已逐漸進化
事實上,最新Deepfake技術已經進化到了“恐怖”階段!
生圖AI Flux以一組真假難分的TED演講照片,引千萬𝕏(前推特)網友線上打假。(左邊由AI生成)

深夜直播的“馬斯克”,也吸引了上萬群眾圍觀打賞,甚至搞起了網友連麥。
要知道,整場直播僅用一張圖片就能實現即時換臉。

這一切果真如網友所言,Deepfake已將科幻照進現實。

其實,Deepfake一詞最早起源於2017年,當時一名Reddit使用者“Deepfakes”將色情女演員的面部替換成了一些美國知名演員,引起一片爭議。
而這項技術可以追溯到2014年,Goodfellow與同事發表了全球首篇介紹GAN的科學論文。
當時就有跡象表明,GAN有望生成模擬度極高的人臉。

後來隨著深度學習技術的發展,自動編碼器、生成對抗網路等技術逐漸被應用到Deepfake中。
簡單介紹下Deepfake背後的技術原理。
比如偽造一個影片。
其核心原理是利用深度學習演算法將目標物件的面部“嫁接”到被模仿物件上。
由於影片是連續的圖片組成,因此只需要把每一張圖片中的臉替換,就能得到變臉的新影片。
這裡要用到自動編碼器,在應用於Deepfake的情況下輸入影片幀,並編碼。
△
圖源:維基百科

它們由編碼器和解碼器組成,編碼器將影像減少到較低維的潛空間,解碼器從潛表徵中重建影像。
簡單說,編碼器將一些關鍵特徵資訊(如面部特徵、身體姿勢)轉換成低維的潛在空間表示,而解碼器將影像從潛在表示中恢復出來,用於給網路學習。
再比如偽造影像。
這裡主要用到生成對抗網路(Gan),它是非監督式學習的一種方法,透過讓兩個神經網路相互博弈的方式進行學習。(此方法也可以用於偽造影片)

第一個演算法稱為生成器,輸入隨機噪聲並將其轉換為影像。
然後,該合成影像被新增到真實影像流(例如名人影像)中,這些影像被輸入到第二個演算法(稱為判別器)中。
判別器試圖區分樣本來源於真實還是合成,每次注意到二者之間的差異時,生成器都會隨之調整,直至最終再現真實影像,使判別器無法再區分。
然而,除了讓外觀上看起來無法區分,當前的Deepfake正在施展“組合拳”。

聲音克隆也升級了。現在,隨便找一個AI工具,只需提供幾秒原音,就能立馬copy你的聲音。
用合成聲音偽造名人的事件也層出不窮。

此外,1張圖生成影片已不再新奇,而且目前的工作重點在於後續打磨,比如讓表情、姿勢看起來更自然。
其中就有一項唇形同步技術(Lip syncing),比如讓小李子開口說話。

如何識別Deepfake?
雖然Deepfake現在已經很逼真了,但下面還是給大家介紹一些識別技巧。
目前網路上大家討論的各種方法,歸納起來就是:
-
不尋常或尷尬的面部姿勢
-
不自然的身體運動(肢體畸變)
-
著色不自然
-
音訊不一致
-
不眨眼的人
-
皮膚的衰老與頭髮和眼睛的衰老並不相符
-
眼鏡要麼沒有眩光,要麼有太多眩光,並且無論人如何移動,眩光角度都保持不變。
-
放大後看起來很奇怪的影片
-
……
得,列文虎克看了直呼內行,不過單憑肉眼觀察著實有點費人了!
更高效的方法還得是,用魔法打敗魔法——用AI檢測AI。
國內外知名科技企業均有相關動作,比如微軟就開發了一種身份驗證工具,可以分析照片或影片,並對其是否被操縱給出評分。
OpenAI此前也宣佈推出一款工具,用於檢測由AI影像生成器DALL-E 3建立的影像。
在內部測試中,該工具在98%的時間內正確識別了DALL-E 3生成的影像,並且能以最小的影響處理常見修改,如壓縮、裁剪和飽和度變化。
晶片製造商英特爾的FakeCatcher則使用演算法分析影像畫素來確定真假。
而在國內,商湯數字水印技術可將特定資訊嵌入到多模態的數字載體中,支援影像、影片、音訊、文字等多模態數字載體。官方稱這種技術能保證超過99%的水印提取精度,且不會損失畫質精度。
當然了,量子位此前也介紹過一種很火的識別AI生圖的方法——調整飽和度檢查人物牙齒。
飽和度拉滿下,AI人像的牙齒就會變得非常詭異,邊界模糊不清。

Science發文:需要標準和檢測工具
就在昨天,Science也發表了一篇文章對Deepfake進行了探討。

這篇文章認為,Deepfake所帶來的挑戰是科學研究的完整性——科學需要信任。
具體而言,就是由於Deepfake逼真的造假、以及難以檢測等原因,進一步威脅到對科學的信任。
而面對這一挑戰,Science認為應當“兩手抓”,一是使用Deepfake的技術道德標準,二是開發精準的檢測工具。
在談及Deepfake與教育發展的關係時,文章認為:
儘管Deepfake對科學研究和交流的完整性構成重大風險,但它們也為教育提供了機會。Deepfake的未來影響將取決於科學和教育界如何應對這些挑戰並利用這些機會。有效的錯誤資訊檢測工具、健全的道德標準和基於研究的教育方法,可以幫助確保Deepfake在科學中得到增強,而不是受到Deepfake的阻礙。
總而言之,科技道路千萬條,安全第一條。
One More Thing
當我們讓ChatGPT翻譯相關事件的內容時,它的反應是這樣:

嗯,AI看了都覺得不妥。
參考連結
[1]https://en.yna.co.kr/view/AEN20240826009600315
[2]https://en.yna.co.kr/view/AEN20240828003100315?input=2106m
[3]https://en.yna.co.kr/view/AEN20240829002853315?input=2106m
[4]https://www.arirang.com/news/view?id=275393&lang=en
[5]https://www.science.org/doi/10.1126/science.adr8354
[6]https://weibo.com/7865529830/OupjZgcxF
[7]https://weibo.com/7929939511/Out1p5HOQ
[2]https://en.yna.co.kr/view/AEN20240828003100315?input=2106m
[3]https://en.yna.co.kr/view/AEN20240829002853315?input=2106m
[4]https://www.arirang.com/news/view?id=275393&lang=en
[5]https://www.science.org/doi/10.1126/science.adr8354
[6]https://weibo.com/7865529830/OupjZgcxF
[7]https://weibo.com/7929939511/Out1p5HOQ
文末互動:
你如何看待韓國Deepfake事件?
評論區告訴我們你的看法哦~
別忘了點關注,不迷路啊。
👇👇👇


Get Rich


點贊+在看,搞錢穩賺!

