你好,我是郭震!
大家不知道聽說這幾天AI圈的一件事沒有,就是位元組起訴實習生篡改程式碼,並要求這位實習生賠償800萬,並公開道歉:

目前此案已由法院正式受理:

800萬的賠償,別說對於一個還未畢業的實習生,就是工作10年的老人也未必一下能拿得出來。
那麼為啥位元組終究還是沒忍住這口氣,還是要透過正規渠道,起訴這位實習生呢?
先來看看事情的經過,2024年10月,一則位元組大模型在訓練中被實習生攻擊的言論,被引發廣泛關注,傳言稱涉及 N多顯示卡,損失達到千萬美刀:

很快位元組發聲,說確有此事,但事實被誇大了,應該說的就是損失千萬美元應該不至於這麼多:

這位實習生田某什麼來頭?
根據公司核實,田某沒有AI Lab實習經歷:

但田某卻能
透過篡改程式碼,
成功攻擊到大模型。雖然不是AI Lab的,但是就是做到了。
看來攻擊大模型這件事,難度並沒有想象的那麼大。事實是如此嗎?
答案是 Yes
透過修改程式碼攻擊大模型,早在2021年就有研究者在計算機安全頂會USENIX發表paper,提出了AI系統存在程式碼修改被攻擊的風險。
這種攻擊的專業術語叫做 Blind backdoor attack
只需要修改少量的程式碼,就能達到極高的攻擊成功率。具體的方法我就不在這裡展開了,感興趣的可以去查下,論文如下截圖所示:

AI技術正在快速發展,但AI的安全風險有時卻不被重視,導致了內部人員很容易就能攻擊到AI系統的問題。
這種問題帶來的後果還是比較嚴重的,否則位元組也不會沒忍住這口氣,起訴這位實習生。損失不僅是看得到的金錢損失,還有訓練時間的耽擱,工期的延誤,商業拼的是技術,拼的也是時間。
因為AI系統安全防護的滯後,內部人員往往可以找到走後門的方法,去迫害AI系統,有時這也是不可避免的。
既然技術手段無法100%防護到,當出現了這樣的情況後,嚴厲的處理,並透過法律和對於個人而言的“鉅額”索賠,未嘗不是一種好方法。能給後來人一種很好的警示,以防止此類事件再次發生。
總之,AI是一把雙刃劍。
對AI感興趣的,可以去「AI免費學習網」 ,訪問地址如下,160門相關教程,算是比較全面了,而且還免費:
https://zglg.work

我還寫了一個40+頁的《普通人學AI》.PDF,只需在下面我的公眾號回覆:AI
,即可免費領取:
為了方便學習,我把學習入口也直接放到下面的「閱讀原文」那裡了,希望這些教程和資料,能幫助到你!
如果覺得對你有用,可以點贊、轉發和在看。謝謝你看我的文章,我們下篇再見。
關鍵詞
實習生
技術
程式碼
位元組