

隨著人工智慧(AI)技術的快速發展,其應用已滲透到日常生活的方方面面,甚至登上了春晚舞臺。
然而,AI技術也帶來了新的安全隱患,尤其是在詐騙領域。近期,全球多地發生了多起利用AI技術實施的高科技詐騙案件,不僅普通人受害,連富豪和名人也未能倖免。

巴菲特有一次與女兒視訊通話,通話結束後,被告知這是AI給他打電話,讓老巴驚掉了下巴。

近日,義大利多名富商成為AI詐騙的目標。詐騙者利用AI技術模仿義大利國防部長吉多·克羅塞託的聲音,聲稱有記者被綁架,要求富豪們支付贖金以協助政府解救人質。
詐騙者還聲稱,“我不能拿國防部的錢付贖金,但義大利銀行將會把錢還給你。”
儘管部分富豪識破了騙局,但仍有不少人上當,其中包括79歲的前國際米蘭足球俱樂部主席馬西莫·莫拉蒂,他被騙走了超過100萬歐元。

莫拉蒂事後表示:“這些騙子非常專業,一切聽起來都像真的,任何人都可能上當。”
等反應過來時,這些錢早就被轉走了,估計這一單直接爆了今年的KPI。
目前,已有3名富商向米蘭地檢署檢舉。
幸運的是,經過國際合作,2月12日米蘭檢方宣佈成功凍結並追回了全部涉案資金。
義大利國防部長和義大利銀行也發出警告,提醒公眾警惕此類詐騙電話,切勿輕易提供個人資訊。

最近這段時間,美國和加拿大各地使用AI合成語音進行電信詐騙的案例越來越多,不僅僅是老年人,還有很多年輕人都上當受騙。
AI詐騙主要分成幾個型別:聲音合成、AI換臉和轉發微信語音。
騙子會透過騷擾電話錄音等,提取某人聲音,獲取素材後進行聲音合成,然後用AI偽造的聲音騙過對方的家屬,目標經常是有子女的老人。

除此之外,他們還會利用AI技術換臉,偽裝成目標信任的人,透過影片方式進行資訊確認。
還有騙子會盜取微訊號,向受害者的好友“借錢”,為取得對方的信任,然後轉發之前的語音,騙取錢款。
儘管微信沒有語音轉發功能,但他們透過提取語音檔案或安裝非官方版本外掛轉發,總之無所不用其極。

AI時代,文字、聲音、影像和影片都有可能是假的,大家更需要提高警惕,不要輕易透露自己的身份證、銀行卡、驗證碼等資訊,也不要提供人臉、指紋等個人生物資訊。
如果有人自稱“家人”或“朋友”,說“學校需要緊急交學費”、“人在境外旅遊需要幫忙買機票”、“遭遇車禍需要馬上手術”,誘導你轉賬,務必留個心眼,多途徑核驗對方身份,不要隨意匯款。










