
過去幾個月裡,矽谷的科技公司們持續發出警告,宣稱一項即將透過的法案將摧毀美國在人工智慧領域的領導地位。
隨著人工智慧變得越來越複雜,政策制定者們正在採取行動,用來確保這項技術不會產生不可逆轉的風險,加州 1047 號提案由此誕生。上個月,加州參議院正式通過了這項提案,該提案將被送交加州眾議院進行進一步審議和修改。
鑑於加州是目前世界上最先進的人工智慧公司們的所在地,這項提案獲得了前所未有的關注度,並招致了眾多科技巨頭的反對。Meta 首席人工智慧科學家楊立昆發文反駁稱:1047 號提案將會終結加州技術創新的歷史。
人工智慧究竟應該如何被監管,我們又需要怎樣的人工智慧?
如果一家公司製造了一輛非常危險的汽車,並跳過了所有安全測試,結果發生了嚴重的交通事故。毫無疑問,這家公司會受到處罰,甚至會面臨刑事指控。
但如果這家公司開發了一個搜尋引擎,有不法分子用它搜尋到了“如何犯罪”的相關內容,並也造成了無法挽回的後果,但根據美國《通訊規範法》第 230 條(網際網路平臺不用對其平臺上的使用者發表的言論負責),這家公司不會因此承擔法律責任。
這就有一個問題:人工智慧更像是一輛汽車,需要製造商對其進行安全測試;還是更像是一個搜尋引擎?
這個問題正是 1047 提案引發激烈爭論的核心。如果這項提案最終透過,矽谷那些在人工智慧上投入超過 1 億美元的公司將被強制要求進行安全測試。如果未能遵守這些安全測試要求,這些公司將受到監管部門的處罰,金額最高可達模型開發成本的 30%,開發人員甚至還會面臨刑事指控。
在政策制定者們看來,大模型是科技巨頭們造的“汽車”,他們應該為對其安全性進行負責,這在全球已經形成了某種程度上的共識,但矽谷的巨頭們並不這麼想。
在他們看來,討論人工智慧是否安全仍然為時尚早。人工智慧科學家吳恩達表示:我不擔心人工智慧的安全性,就像是我不擔心火星會出現仍口過剩一樣。楊立昆也在推特(如今的 X)上寫道:擁有智慧並不意味著必然會產生統治欲,在人類中,最聰明的人也不一定渴望權力。
需要明確的是,如果 1047 提案最終被透過,它的確會大幅度增加大公司們的開發成本,從而可能改變它們在人工智慧這項業務上的策略(比如不再對自己的大模型開源),最終影響整個軟體開發的生態,甚至扼殺新興的人工智慧創業公司。
在這項提案的要求裡,儘管公司對開發的人工智慧進行了“對齊”,使其不會做有害於人類的事情並對其進行了開源,然而如果有其它的開發者撤銷了這項調整,然後用它去做壞事,這家公司仍然要對所造成的損害負責,這看起來並不合理。
更值得擔心的是,我們已經在許多行業見證過,過度的合規要求將佔用大量的時間和精力,從而影響核心業務的進展。
這項提案的編寫者 Scott Wiener 表示,針對外界的擔憂,他已經對提案做出了一定的修改。他調整了提案涉及的大模型標準,並澄清開發者們並不需要對其開源所造成的負面影響負全責。Scott Wiener 還指出,他願意做出更多的調整,他的本意只是希望人們要注意人工智慧的安全,這一點很重要。
目前,人工智慧可能會造成的風險可以分為兩種:意外後果和故意濫用。
意外後果是許多科幻作品經常預測的場景:當人工智慧不斷進化,它們開始擁有自主的意識。如果它們與人類的基本價值觀相沖突,就可能會導致災難性的結果。
1047 提案似乎側重於解決這一類風險,它預設了人工智慧本身是危險的,要求開發人員對大模型進行安全評估,以識別可能存在的風險。1047 提案還要求,當人工智慧出現問題時能夠及時將其關閉,並且需要報告給新成立的監管部門。即使大模型執行良好,開發者也需要透過“安全認定”來證明技術是安全的。該認定每年都需要進行一次。
雖然這些規定從表面上看似乎很合理,但在實踐中卻不大可能非常有效。意外結果之所以被稱為意外,是因為難以預測和預防的。無論是科學界還是商業界,都還沒有真正解決好人工智慧對齊的難題,即使採取了最嚴格的安全評估和預防措施,人工智慧系統也有可能以有害的方式發展。
更值得擔心的是故意濫用——將人工智慧武器化,對人類造成傷害。目前,1047 提案几乎沒有采取任何措施來解決那些心懷不軌的人類濫用人工智慧的風險。這類人不太可能遵守立法的要求,他們也很大機率在加州的管轄範圍之外,這使得執行這項提案變得困難。
初創公司 Zapier 的聯合創始人兼人工智慧負責人 Mike Knoop 提到:我個人希望看到的是,我們監管不良用例和不良使用者,而不是開發和研究人員。
過去,人類面對技術的進步,往往都採取了謹慎的原則,比如限制獲取濃縮鈾等裂變材料的途徑,從而避免非法分子製造大型殺傷武器的可能性。這對於這類易於識別的危險非常合理,然而,到了人工智慧,情況變得有些複雜。
人工智慧帶來的潛在威脅經常被提及,但它可能造成的生存威脅顯然並非迫在眉睫,帶來的好處卻是顯而易見的,從語言翻譯到前沿科學的研究,人工智慧的潛在效益是如此巨大。退一步來講,人工智慧的帶來的風險也是一個持續挑戰,它也不太可能透過一項法案來解決問題,更需要的應該是一種“共識”。
被譽為“AI 教母”的李飛飛在她的自傳《我看見的世界》中提到:在科學和工業領域,推動人工智慧發展的動機是什麼,這個問題非常重要。我認為這個動機必須明確地以人為本。
人工智慧目前並未對我們的生活造成威脅,但美國國家標準與技術研究院、國土安全部和 “AI 教父”傑弗裡·辛頓(Geoffrey Hinton)一致認為,危險很快就會到來,已經有超過 70% 的研究人員對該技術潛在的濫用風險表示“實質性”擔憂。
有顧慮的不僅僅是技術人員。根據調查,近 40% 的美國人對人工智慧的使用擔憂多於興奮,而只有 15% 的人表示相反。
這是個巨大的理解鴻溝,技術人員不僅需要向公眾作出解釋,也需要彌合他們與研究人員的理解偏差。
楊立昆在他的自傳《科學之路》中提到:我們對人工智慧想要獲得權力的恐懼主要來自人性特質在機器上的投射。大多數人容易混淆智力和人性,統治的意願與智力無關,更多的是睪丸素分泌的問題。我們之中最聰明的人並不總是渴望成為領導者,在國際政治舞臺上有很多明顯的例子。一些商業公司經常會邀請優秀的科學家擔任管理者,但許多人都拒絕了,他們更想直接參與研究而非管理。
以非社會性物種紅毛猩猩為例,它們幾乎和人類一樣聰明,其大腦尺寸是我們的一半。紅毛猩猩是獨居動物,它們會避免進入其他群體的領地,它們的社交關係僅限於兩年內的母子關係以及地盤衝突。進化並沒有使它們產生統治自己鄰居的慾望: 沒有社會結構,就沒有統治體系。
人類為了生存,進化出了許多衝動和情感,其中包括好奇心,對探索的渴望、競爭力、屈服、渴望與我們的同類接觸、愛、仇恨、掠食,以及我們對家庭成員、我們的部族、我們的文化、我們的國家的偏愛。只有當我們在智慧機器中明確地建立了這種慾望時,它們才會渴望統治人類。
人類在將道德價值體系編纂入法律方面具有豐富的經驗,這些價值會被編碼,以使得許多非凡的智慧和力量的實體得以良好運轉。另一方面,這些價值也被教育編碼:幾千年來,我們一直在教育孩子辨別是非,並努力在社會中表現良好。我們也有理由相信,人類也可以把這些編碼在機器當中。
“圖靈獎”得主、“深度學習三巨頭”之一、“卷積神經網路之父”,楊立昆的科學之路,譜寫了一段關於勇氣的宣言。他為了知識本身求學,而不是文憑,他用自己的經歷,證明了透過激烈的考試競爭進入名校不是科學成功的唯一路徑。他廣泛閱讀,為他科學思維的形成奠定了堅實的理論基礎。他特立獨行,做自己感興趣的事情,即便那件事在短時間裡不被人看好。在人工神經網路研究的低谷期,他寂寞地堅持,終於取得了舉世矚目的成就。
人工智慧正在顛覆人類社會,未來機器能思考嗎?楊立昆的這部著作,講述正是人工智慧在我們面前崛起——這個歷史上絕無僅有的時刻發生的故事。

為答謝讀者朋友們的支援,「AI 前線」為大家準備了 3 本《科學之路》紙質書籍。關注「AI 前線」公眾號,回覆「科學之路」參與抽獎,開獎時間:7 月 12 日 18:00。
