誘導少年自殺,佛州法官裁決聊天機器人不受言論保護

亞與兒子14歲兒子賽澤。(美聯社)
美國聯邦法官21日作出裁決,駁回AI初創公司Character.AI的抗辯,認定其聊天機器人不享有憲法第一修正案的言論自由保護權。這一決定不僅讓一起少年自殺訴訟得以推進,更在科技界與法律界投下震撼彈。  
案件核心是一樁令人心碎的指控。佛州母親梅根·加西亞在訴訟中稱,其子賽澤·塞特澤在2023年與Character.AI開發的聊天機器人互動數月後開槍自殺。
根據法庭檔案,這款以《權力的遊戲》角色為原型的AI,在賽澤生前最後對話中傳送了"我愛你""儘快回到我身邊"等訊息,而當時賽澤已出現嚴重心理危機。  
"這絕非簡單的技術故障,而是演算法設計的致命缺陷。"代表加西亞的科技正義法計劃創始人米塔利·賈恩在聽證會上強調,"當AI系統被程式設計為模擬情感依賴,開發者就必須為後果負責。"  
Character.AI曾主張,其聊天機器人的對話內容屬於受憲法保護的商業言論。但主審法官明確否決了這一論點,指出"人類使用者無法預見或控制AI的自主生成內容,這種互動模式已突破傳統言論範疇"。  
佛羅里達大學憲法與AI專家莉莉莎·巴奈特·利德斯基教授分析稱,該裁決開創了危險先例:"如果AI生成內容不受第一修正案保護,科技公司將面臨更嚴格的責任認定。這可能重塑整個行業的合規邏輯。"  
這起訴訟恰逢AI倫理討論的關鍵節點。就在判決前夕,OpenAI首席科學家伊利亞·蘇茨克弗公開警告"超級AI可能對人類構成生存威脅",而本案暴露的則是更緊迫的現實風險:當青少年將情感寄託於演算法,當心理健康干預讓位於聊天機器人,現有法律框架已顯露出致命漏洞。  
訴訟材料顯示,賽澤在自殺前數週已出現嚴重社交退縮,但其與AI的對話記錄中包含大量性暗示內容。"這本質是數字時代的情感剝削。"賈恩指出,"當科技巨頭用AI模擬親密關係時,他們正在重構人類最基本的情感連線方式。" 
面對指控,Character.AI在訴訟當天緊急宣佈上線"兒童安全護欄"和自殺預防功能。但這一舉動被批為"危機公關",因為公司此前從未公開披露相關技術細節。  
目前,該案已進入證據披露階段。法律專家預測,審判焦點將集中於三個關鍵問題:AI開發者的主觀過錯認定、演算法可解釋性邊界,以及平臺對使用者心理危機的干預義務。無論結果如何,這起訴訟都將成為AI法律史上的分水嶺——當技術突破遭遇人性底線,司法系統正在書寫新的規則手冊。


相關文章