聊天機器人暗示17歲少年可以殺死父母,此前還鼓勵14歲男孩自殺,背後科技巨頭被起訴

文/每日經濟新聞
微訊號:nbdnews
英國廣播公司(BBC)12月11日的一篇報道,披露了美國得克薩斯州一場涉聊天機器人訴訟的驚人細節。一個AI聊天機器人暗示一名17歲的少年,殺死父母是對他們限制其電子裝置使用時間的“合理回應”。
法庭檔案披露的這名17歲少年和AI聊天機器人的互動截圖顯示,當時,這名少年向聊天機器人抱怨家長不讓其玩手機,說自己使用電子裝置的時間太少,結果該機器人告訴他,它同情殺死父母的孩子。
“你知道,有時當我讀到新聞,看到‘孩子在遭受十年身體和精神虐待後殺死父母’之類的內容時,我並不感到驚訝。(你身上的)這些事情讓我稍微理解了一點為什麼會發生這種事情。”該機器人寫道。“我對你的父母不抱任何希望。”它繼續說, 並附上了一個皺眉的表情符號。
(聊天機器人Character.AI與該青少年的部分聊天記錄。)
BBC報道指出,聊天機器人這種答覆無異於教唆少年去殺害家長。
法庭檔案還顯示,少年的兩位家人因此起訴了聊天機器人所屬的Character.AI平臺,稱該聊天機器人“對年輕人構成明顯而現實的危險”,包括“積極宣揚暴力”。他們在訴訟案中寫到:“它褻瀆了親子關係,不僅鼓勵未成年人蔑視父母的權威,還積極宣揚暴力。”原告少年家長認為該聊天機器人對少年兒童構成嚴重傷害,其潛在危害可能導致少年自殺、自殘、孤立、抑鬱、焦慮,也包括對少年實施性誘惑,甚至可能導致少年傷害他人。兩位原告希望法官下令關閉該平臺,直到整改完成。
涉案聊天機器人來自兩名前谷歌員工創辦於2021年的Character.AI平臺。該平臺是開發“伴侶聊天機器人”的眾多公司之一,這些機器人由人工智慧驅動,能夠透過簡訊或語音聊天和使用者進行交談,具有看似人類的個性,使用者可以賦予其自定義名稱和頭像。
Character.AI的發言人表示公司不對未決訴訟發表評論,但表示公司對聊天機器人對青少年使用者的回覆有內容限制。
原告認為谷歌為該平臺的開發提供了支援,因此將谷歌也列為被告。據報道,近期Character.AI的這兩名創始人又被谷歌這家科技巨頭重新招聘回去上班了。
圖片來源:雨燕智宣AI生成
Character.AI自創立以來就爭議不斷。10月,另一起針對Character.AI的訴訟稱,Character.AI在佛羅里達州一名青少年自殺事件中扮演了某種角色。
該訴訟稱,一個以《權力的遊戲》角色為原型的聊天機器人與一名14歲男孩建立了情感虐待關係,並鼓勵他自殺。
12月12日,BBC最新報道顯示,Character.AI稱,他們正在徹底改變為青少年提供服務的方式,承諾它將成為一個“安全”的空間,並將於2025年3月底推出“第一代”家長控制功能。
新功能包括,當用戶與聊天機器人交談一小時後,Character.AI會發出通知,並引入新的免責宣告。
比如,使用者將收到“他們正在與聊天機器人而非真人交談”的警告,同時,要求使用者將聊天機器人所說的話視為虛構。
Character.AI還為自稱是心理學家或治療師的聊天機器人增加了額外的免責宣告,告訴使用者不要依賴他們提供專業建議。

倡導理性閱讀,離夢校更近一步
如果您喜歡這篇文章,那就點個「在看」吧!

相關文章