前腳大爺出軌“劉曉慶”,後腳“雷軍”曝出猛料:如今的網際網路太顛了……

文 | 知否大叔 · 主播 | 雲灣

來源 | 知否大叔(ID:zhifoudashu)

這兩年,高科技行業發展速度著實太迅猛了。
左手人工智慧,右手機器人,搞得很多反應速度慢的小夥伴一愣一愣的,完全不知所以然。
而伴隨著新技術的發展,有人就動起了歪心思。
最近掛在熱搜上的受害者,是演員劉曉慶。
3月3日,有網友在劉曉慶社交平臺下留言,稱有人在影片平臺用AI生成影片假冒她。
劉曉慶看到後,震驚表示:
“天哪,我點進去看了一下,畫面是我,聲音很像我,但不是我!
這是怎麼做到的?
大家以後不會搞不清楚哪個才是真的我了吧?
我在各個平臺都叫劉曉慶!”
影片中的“劉曉慶”,身著幹練的小西裝,頭頂精緻的髮型,面帶微笑,一手捧書,一手拿麥,高談闊論。
畫面一樣,聲音也一樣。
真不怪慶奶會迷糊。
評論區裡,一眾網友沉醉其中,連環彩虹屁簡直誇上了天。
這個賬號利用劉曉慶的形象與聲音,使用AI生成影片,為劉曉慶量身打造出了一個完美的情感教母形象。
截止被封之前,共發了9條影片。
最高的一條,點贊7.8w。
針對AI換臉擬聲現象,雷軍在今年的兩會就提出了建議。
希望相關部門能夠在安全與發展並重的基礎上提升立法立階。
雷軍為什麼會提出建議?
這話說來倒黴。
他也是AI造假的受害者之一。
去年國慶假期,有人用AI捏造雷軍配音。
國慶7天,“雷軍”罵翻全網。
影片中的雷軍,一口一句國粹。
還猖狂笑道:
“老子要遠端控制你的小米手機,然後自爆!”
“直接操控小米 su7 撞x你!”
惡搞也就算了,更過分的是造謠。
比如某條影片,“雷軍”稱要給某大學50個億的投資。
不少網友信以為真。
實際上,真雷軍壓根就不知道這件事。
還有人制作雷軍各種跳舞的影片,那場面,別提多尬了。
別說雷軍感到不舒服了,這換誰誰能舒服?
誠然,AI技術能為我們的生活提供很多便利。
但這不代表,就可以濫用AI技術,肆意踐踏別人的名譽權。

類似造假影片只要一澄清,很多網友就明白怎麼回事了。
可這隻針對年輕網友。
讓那些上了年紀的網友相信影片是假的,很難。
但讓他們相信影片是真的,簡直不要太簡單。
一群看起來不到半歲的大胖小子,抱著金元寶行走在田野裡。
影片前的老奶奶看見這一幕,無不羨慕地說:
“誰家那麼多大孫子,長得一個比一個喜慶!”
當你認真跟奶奶科普這是假的後,就會收穫奶奶白眼一枚:
“什麼假的?
你才是假的!”
奶奶不相信你轉發的闢謠貼,但一定相信1歲小孩能徒手端起一整隻乳豬。
然後光腳送到奶奶家門口。
還有小孩做飯的影片。
穿紙尿褲的嬰兒能獨自去地裡摘茄子、把菜洗乾淨。
然後抄起菜刀,嫻熟地給奶奶做三菜一湯。
奶奶們在影片下方留言:
“這大孫子,真孝順啊!”
“寶寶慢一點,別傷到手了。”
“寶寶,你就是世界最好的寶寶。”
時間長了,奶奶們看自家孫子就沒那麼順眼了。
你看人家小孩,不到一歲就能跑能跳,還能洗衣服做飯。
你再看看你,多大的人了,整天吃了睡睡了吃,對這個家一點貢獻都沒有!
大學生孫子們欲哭無淚。
還有小貓騎腳踏車,小狗救人的影片。
奶奶看到後,感動不已。
順便批評自家孩子:你看看你,整天就知道玩。
還有網友欲哭無淚地說
“我爸成天看AI,讓我家的狗跟人家學學。”

還有更炸裂的。

當他們刷到3米高的女人嫁給了1米高的丈夫,第一反應不是懷疑,而是:
太感人了!
還有網友哭笑不得:
“我爸上次對我說三星堆發掘出了汽車高等文明,我定睛一看,好傢伙,是AI做的青銅汽車!”
更有某研究所捕捉到外星人全家的影片,在網上傳播。
一看便是AI合成的假影片。
可架不住有人信…

雖然影片是假的,但長輩們的開心是真的啊!

這樣一想,好像也沒什麼大不了的。
但如果從搞笑影片發展成詐騙,閣下該如何應對?
還記得前兩年的“假靳東”詐騙事件嗎?
騙子團隊註冊大量賬號,透過冒充演員靳東的方式,向粉絲索要大量錢款。
愛慕者裡有一位姓黃的阿姨,非常瘋狂。
60多歲的她,有老伴還有孩子和孫子。
但自從迷戀上“靳東”後,就像是變了一個人。
對待自己的老伴像仇人,非打即罵。
在她心裡,只有靳東才是自己的丈夫。
就在主持人去她家進行調解之前,黃阿姨曾離家出走,跑到長春市。
這是因為靳東約她去那裡見面。
靳東還對她做出了承諾:見面後會給她一套房子、一百萬元。
真靳東聽到這個訊息,哭暈在廁所。

還有AI張文宏直播帶貨,稱998的保健品買了回家效果絕對好。

甚至連一國總統也沒有逃過被AI造假的命運。

“總統普拉博沃線上發錢”等一系列AI造假影片,席捲印尼。
影片中,大眾被告知如果想要收到援助款項,必須向指定賬戶交納一筆“管理費”。
不少受害者哭訴:
“影片‘總統’的眼睛在眨,嘴型也隨著說話在動,就像真的坐在我對面和我說話一樣。”
據警方統計,受害者已經遍佈該國20個省份。
不僅是詐騙,還有造謠。
雅安一男子,利用AI炮製火災謠言。
還有圖有真相,沒闢謠之前,周圍居民人心惶惶。
還有網民閆某某,使用AI洗稿工具編造:
某品牌汽車L3自動駕駛致死案,稱車企被判賠償70%,文章閱讀量超500萬次。
最後,警方以涉嫌尋釁滋事罪對閆某某刑事拘留。
AI只需幾十秒,就能輕鬆生產出來各種詐騙和謠言影片。
很多家中的長輩,沒有什麼分辨能力。
他們相信自己的眼睛,更相信影片中的內容。

AI造假,對他們來說就是一場災難。

科普作家“河森堡”描繪了一個這樣的場景:
“AI能虛構從文字到照片乃至影片的一切內容,並且令其彼此印證互相支撐,可謂天羅地網環環相扣。
其製造的幻覺在強度上和之前編點文字故事時不可同日而語。
除非你親自見到專家本人求證,或者到現場實地考察,否則你會被AI創造出的假象玩得死死的。
有時年輕人都很難分辨,更何況是老年人。
不過,任何事物都有兩面性。
AI的出現,也帶來了很多好處。
在醫療領域,AI可以幫助醫生更準確地診斷和治療疾病;
在教育領域,AI可以個性化地輔助學習,提供更好的教學資源;
在交通領域,AI可以提升交通安全和效率,減少事故和擁堵。
但壞處也是很明顯的。
被侵犯肖像權、被造謠、甚至被詐騙等。
今天中招的是雷軍靳東,明天中招的就有可能是你我。
所以,任何高科技,都不能離開以人為本。
唯有法律嚴控底線、平臺壓實責任、公眾提升警惕,才能避免技術狂歡演變為信任災難。
當技術突破倫理邊界,“相信”不再是本能,而成了需要反覆驗證的技能。
未來的世界裡,我們或許會習慣性地問:
“這是真的嗎?”
也許,這不是悲哀,而是文明的進步。
因為真正的信任,永遠建立在清醒的認知與系統的保障之上。
作者:知否大叔來源:知否大叔(ID:zhifoudashu)。三觀比五官正,眼界比目光更寬廣;沒見過你,但比誰都懂你。有書經授權釋出,轉載請聯絡作者。圖片來源網路,侵刪。
有書VIP會員
現已全煥新升級
敬請登入書APP,探索更多詳情
10000本電子書免費看
加入有書VIP會員
率先一步成為終身成長者
開啟人生向好的齒輪

 點選“閱讀原文”檢視詳情


相關文章