非法阻止員工披露AI安全風險,OpenAI嚴厲「封口協議」再遭舉報

機器之心報道
編輯:大盤雞
OpenAI 在人工智慧領域的領頭羊地位家喻戶曉。其產品聊天機器人 ChatGPT 系列、文生圖 DALL・E 系列、文生影片 Sora 等都被譽為生產力提升的超強助手
據透露,OpenAI 內部正在一個代號為「草莓(Strawberry)」的專案中開發一種新的人工智慧模型。該專案的細節此前從未被報道過,而 OpenAI 正努力證明其提供的各類模型能夠提供高階推理能力。不過 OpenAI 現在似乎正陷在另一場風波當中。
據《華盛頓郵報》報道,一位舉報人向美國證券交易委員會(SCE,Securities and Exchange Commission)提出投訴,指控這家人工智慧公司非法禁止其員工警告監管機構其技術可能對人類構成的嚴重風險,並要求進行調查。

《華盛頓郵報》相關報道

舉報人將一封長達 7 頁的信函遞送。信中表示,OpenAI 向其員工發出了過於嚴格的僱傭、遣散費和保密協議,這些協議可能導致向聯邦監管機構提出對 OpenAI 的擔憂的員工受到處罰。

這封信由《華盛頓郵報》獨家獲得。檢視地址:https://www.washingtonpost.com/documents/83df0e55-546c-498a-9efc-06fac591904e.pdf?itid=lk_inline_manual_4

「這些合同傳遞了一個資訊,即『我們不希望…… 員工與聯邦監管機構對話』,其中一位舉報人說,由於害怕遭到報復,他不願透露姓名。「我認為,如果人工智慧公司遮蔽審查和異議,就無法構建安全且符合公眾利益的技術。」
代表匿名舉報者的律師將這封信寄給了美國證券交易委員會主席 Gary Gensler。信中提到了一份單獨的正式投訴,要求美國證券交易委員會調查 OpenAI 的離職、非貶損和保密協議。
這封信中談道:「這些協議禁止並阻止員工和投資者就證券違規行為與 SEC 溝通,強迫員工放棄舉報人獎勵和補償的權利,並要求員工將與政府監管機構的溝通情況通知公司。」
信中還稱,SEC 已獲得證據,證明 「OpenAI 之前的保密協議違反了法律,要求其員工簽署非法的限制性合同,以獲得僱傭、離職金和其他經濟對價」。
在一份宣告中,OpenAI 發言人 Hannah Wong 說:「我們的舉報人政策保護員工進行受保護披露的權利。此外,我們認為對這項技術進行嚴格討論至關重要,並且已經對我們的離職流程進行了重要修改,刪除了非貶損條款。」
據 TechCrunch 報道,參議員 Grassley 表明:「監測和減輕人工智慧帶來的威脅是國會保護國家安全的憲法責任的一部分,而舉報人對這項任務至關重要。」「OpenAI 的政策和做法似乎對舉報人的權利造成了寒蟬效應,使他們無法暢所欲言,也無法因其受保護的資訊披露而獲得應有的補償。」
他補充說,如果聯邦政府要在人工智慧領域保持「領先一步」,OpenAI 的保密協議必須改變。 
今年早些時候,OpenAI 的員工離職協議已經飽受批評,因為據報道,如果前員工拒絕簽署該檔案或違反保密協議,他們的既得股權將被剝奪。執行長 Sam Altman 隨後表示 「非常抱歉」,同時還聲稱公司 「從未收回任何東西」,並且 「已經在修正標準的離職檔案」。
六月初, OpenAI 和其他知名人工智慧公司的幾名現任和前任員工警告說,這項技術對人類構成嚴重風險,並呼籲公司實施全面變革以確保透明度並促進公共辯論文化。 
這些員工寫道,由於人工智慧受到的監管並不嚴格,因此責任只能由公司內部人員承擔,他們呼籲公司解除保密協議,併為員工提供保護,允許他們匿名提出擔憂。
此舉正值 OpenAI 面臨員工外流之際。許多批評人士認為,包括 OpenAI 聯合創始人 Ilya Sutskever高階研究員 Jan Leike 在內的知名員工離職是對公司領導的斥責,一些員工認為,公司領導以犧牲 OpenAI 技術的安全性為代價來追逐利潤。

Sam Altman、 Ilya Sutskever 和 Jan Leike

舉報者在信中提到的正式投訴已於今年 6 月提交給美國證券交易委員會。OpenAI 舉報人的代理律師 Stephen Kohn 表示,美國證券交易委員會已對投訴做出回應。目前尚無法確定證交會是否已展開調查。該機構沒有回應《華盛頓郵報》的置評請求。
參考連結:
https://techcrunch.com/2024/07/13/whistleblowers-accuse-openai-of-illegally-restrictive-ndas/
https://www.washingtonpost.com/documents/83df0e55-546c-498a-9efc-06fac591904e.pdf?itid=lk_inline_manual_4
https://www.washingtonpost.com/technology/2024/07/13/openai-safety-risks-whistleblower-sec/?continueFlag=7791616afbbc3fe3125af5b41149023f
https://www.reuters.com/technology/openai-whistleblowers-ask-sec-investigate-restrictive-non-disclosure-agreements-2024-07-13/
創意為王安全為先,AIGC的雙線作戰
7月17日,《AIGC體驗派》第五期,邀請到火山引擎內容安全與風控負責人張建洋和NVIDIA企業級開發者社群高階經理何琨,一起聊聊AIGC在營銷領域的創新與安全問題:
  • 如何避免大語言模型不再胡言亂語?

  • 如何確保AIGC創作內容的質量與安全?
  • 如何避免營銷活動成為黑產的提款機?
識別海報二維碼點選閱讀原文,立即報名直播。

© THE END 
轉載請聯絡本公眾號獲得授權
投稿或尋求報道:[email protected]


相關文章