薛瀾:AI四大風險引發擔憂,全球治理如何跟上技術狂奔

“對於人工智慧巨大潛力的評估和預測,始終伴隨著對其潛在風險的擔憂。這些風險不僅涉及技術層面,還廣泛觸及倫理安全、國家治理以及社會應用等多個方面。”清華大學蘇世民書院院長、公共管理學院教授薛瀾近日撰文強調,“由於人工智慧技術的特性,我們原來所熟悉的治理手段和方法似乎正在失效。”
在他看來,各國在治理體系、技術能力、經濟發展水平的差異,給人工智慧的全球治理帶來諸多挑戰:一是未來通用人工智慧發展技術路的不確定性問題,二是技術治理與技術創新步調協調的問題,三是國際治理機制的多元性和複雜性問題,四是人工智慧治理的監督執行問題,五是地緣政治帶來的問題,其核心挑戰是美國對華科技脫鉤問題。
薛瀾提出,如何為人工智慧安全治理的國際合作劃出一塊“安全區”,是我們當前面臨的最為緊迫的任務。未來一段時間亟待考慮和努力落地的關鍵策略包含:
❶ 將人工智慧治理挑戰分類梳理,分解治理任務並推動分工合作;
❷ 把治理思維納入技術開發的起點;
❸ 透過敏捷治理的方式完善技術治理體系;
❹ 針對國際治理機制多元性和複雜性的挑戰,一方面要推廣全球公共產品的理念,將人工智慧面臨的各種風險應對視為全球公共產品,另一方面要努力發揮聯合國作為全球治理總體框架的協調作用;
❺ 針對人工智慧風險監管執行難的挑戰,一方面要積極推動人工智慧相關領域的技術標準制定並加大執行力度,另一方面要推動各國人工智慧安全研究機構合作研究並制定風險應對預案;
❻ 針對地緣政治領域的挑戰,尤其是美國對中國科技創新領域的打壓態勢,要有選擇性地推動中美科技合作。
* 本文原載於《探索與爭鳴》2025年第1期,具體內容以正刊為準。文章僅代表作者個人觀點,不代表CF40及作者所在機構立場。
人工智慧的風險與全球治理的策略
文 | 薛瀾

近年來,人工智慧技術的發展突飛猛進、日新月異。自ChatGPT問世以來,各種大模型層出不窮,其能力也在不斷增強。在中國,這一領域更是上演了所謂的“百模大戰”,反映出對技術創新與突破的強烈訴求。

儘管如此,對於人工智慧巨大潛力的評估和預測始終伴隨著對其潛在風險的擔憂。

這些風險不僅涉及技術層面,還廣泛觸及倫理安全、國家治理以及社會應用等多個方面。

因此,如何有效地進行人工智慧的風險管理,成為伴隨其發展的不容忽視的重要議題。

人工智慧系統的主要風險

人工智慧系統蘊含的主要風險可被歸納為四個主要層面。

其一,與人工智慧系統本身相關的風險。

首先是安全漏洞問題,人工智慧系統的複雜性和廣泛應用,使其易於受到攻擊。例如,機器學習模型可能受到資料病毒攻擊,從而影響其決策能力。

其次是人工智慧模型的不透明性問題,許多深度學習模型如同“黑箱”,人們難以解釋其決策過程,這可能導致無法充分理解系統作出決策的原因,尤其是在醫療或法律等關鍵領域。

此外,還存在人工智慧系統的失控問題。隨著通用人工智慧實現的可能性越來越大,人們愈發擔心人工智慧系統的自主性過強,從而帶來其超出人類控制的風險。

其二,人工智慧系統在開發與應用中存在違反社會倫理道德標準的風險。

首先,其存在侵犯個人隱私的風險。人工智慧技術,如面部識別和行為分析演算法技術等,如果未經嚴格監管,可能會被用於企業對員工不合理的監控。又如,人工智慧系統通常需要收集和處理大量個人資料,如果這些資料的採集和使用未遵循隱私保護標準,就可能導致資料洩露或濫用,侵犯個人隱私權。

其次是演算法偏見問題。人工智慧系統訓練資料中存在的偏見可能帶來不公正的決策和歧視性結果。比如,面試篩選系統可能因偏見資料而對某一特定種族或性別的候選人產生歧視。

再次是責任和問責不清問題。當人工智慧系統的決策產生負面後果時,確定誰應該為這些決策負責是一個難題,開發人員、操作人員或使用者之間的責任歸屬常常含糊不清。

與此同時,深度學習模型的不透明性使得系統的決策過程在倫理審查中難以理解和評估,尤其當AI用於醫療、金融或執法等領域時,這種不透明性可能伴生嚴重的倫理問題。

最後,還存在涉及道德邊界的跨越問題。人工智慧系統有可能被應用於影響人類生存、健康等基本權利的領域(如自動駕駛汽車和醫療診斷),如果人工智慧系統發生故障或錯誤,可能會引發深遠的倫理爭議。

其三,人工智慧系統存在被誤用、濫用或惡用的風險。

一是人工智慧系統可能被用於深度偽造和資訊操控。人工智慧技術可以生成逼真的影片和音訊,如深度偽造技術,這些技術可能被用於製造假新聞或虛假資訊,誤導公眾輿論,進而威脅公共管理和社會穩定。

二是人工智慧系統可能被用於操控行為。利用人工智慧的行為分析和個性化推薦技術,公司或組織能夠設計出極具針對性的廣告或資訊流,可以影響甚至操控使用者行為和決策,削弱個體自主權。

更為極端的是,人工智慧系統可能存在被恐怖組織惡用的風險。如果無人駕駛技術與人工智慧技術結合起來,可能被非法組織用於實施複雜且難以預防的襲擊。例如,恐怖組織可能利用

人工智慧系統

用來增強其作戰和宣傳能力,使用無人機進行攻擊或利用自動化工具傳播極端主義內容。

其四,人工智慧系統存在被用於威脅國家政治和軍事安全的活動的風險。

一是考慮到資訊戰的存在與虛假資訊的傳播,人工智慧系統已構成威脅國家政治安全的一大風險。例如,人工智慧技術可以生成高度逼真的虛假內容(如深度偽造影片和影像),這些虛假資訊可能被用於傳播不實訊息、煽動公眾情緒和擾亂社會穩定。又如,人工智慧技術可被用於分析和預測選民行為,為設計精準的政治宣傳和操控手段提供便利。

二是在網路等基礎設施安全方面,人工智慧技術可被用於增強網路攻擊的複雜性和自動化程度,使得攻擊更難檢測和防禦。這些攻擊可能針對關鍵基礎設施,如電網系統、交通系統和政府資料庫,對國家安全構成嚴重威脅。

三是在軍事方面,人工智慧技術可被用來開發自主武器系統。此類系統甚至可能在無人工干預的情況下作出生死決策,增加了誤判、衝突升級和不必要暴力行為的風險。

四是人工智慧技術可能導致軍備競賽與地緣政治緊張。目前,各國競相發展人工智慧技術以獲取軍事優勢,可能引發新一輪軍備競賽,導致技術擴散和地區或全球性衝突的風險增加,威脅全球安全平衡。

國際社會對於上述風險的認識隨著人工智慧技術的發展而不斷深化。特別是自ChatGPT釋出以來,全球對於大語言模型可能引發的安全隱患給予了更多關注。在過去的一年多時間裡,我們見證了多項旨在加強國際合作與交流的重大舉措。

比如,聯合國秘書長古特雷斯於2023年10月組建了一個高級別專家組,專門研究人工智慧治理問題;英國於2023年11月主辦了首屆人工智慧安全峰會,並於2024年與韓國共同舉辦了第二屆會議;歐盟通過了具有里程碑意義的《人工智慧法案》;2024年7月,聯合國還通過了一項由中國主導發起的提案,旨在促進各國在提升人工智慧方面的協作。所有這些行動都表明,無論是政府機構還是私營部門,都已經深刻認識到構建一個健全有效的人工智慧治理體系的重要性。

清醒地認識到人工智慧技術可能帶來的風險,並不意味著我們就能夠對這些風險進行有效治理,不僅如此,

由於人工智慧技術的特性,我們原來所熟悉的治理手段和方法似乎正在失效。

人工智慧全球治理的主要挑戰

一方面,人工智慧帶來的風險涉及各個方面和各個領域;另一方面,由於人工智慧技術尚處於發展階段,社會各界對其風險的認識也不盡相同,人工智慧的收益和風險的權衡仍充滿不確定性。而全球層面來看,

各國在治理體系、技術能力、經濟發展水平的差異,更是給人工智慧的全球治理帶來了諸多挑戰

第一個挑戰是未來通用人工智慧發展技術路的不確定性問題。

雖然大多數專家對規模定律(scaling Law)堅信不疑,認為只要有足夠的算力,大模型就會帶來眾多新場景和一系列令人驚豔的表現,最終實現通用人工智慧,但最近一段時間,已有越來越多的專家對規模定律提出質疑。規模定律是否是提升系統性能的唯一辦法?是否還有其他可行的技術路

?這些新的技術路

發展的不確定性,將在人工智慧治理的基礎層面引發新的問題。

第二個挑戰是技術治理與技術創新步調協調的問題。

人工智慧技術的發展日新月異,但技術治理的法律法規制定及相關機構、制度的變革卻相對緩慢,導致兩者之間存在步調不一致的現象。這種現象在全球範圍內普遍存在,這種步調不一致使得治理似乎總是滯後於人工智慧技術的發展,這也是為什麼我們總在強調“敏捷治理”的重要性。

第三個挑戰是國際治理機制的多元性和複雜性問題。全球治理中存在所謂的“機制複合體”(regime complex)問題,這是全球治理學者在研究其他全球治理問題時發現的一個現象,同樣適用於人工智慧治理。也就是說,在複雜的全球性問題上,可能存在一系列不同的治理機制,它們都有一定的發言權,但這些機制之間並無上下從屬關係,它們可能相互重疊、相互衝突,甚至完全矛盾。

例如,在基因資料的全球治理中,生物醫學專業組織、國際組織、基金會、政府部門以及立法機構等都可能參與治理,它們各自擁有不同的治理工具,如專業標準、國際宣言、法律等,形成了一個較為混亂的局面,讓企業或人工智慧技術應用者感到無所適從。

第四個挑戰是人工智慧治理的監督執行問題。不少人曾提議用監管核技術的方式來監管人工智慧技術,雖然這在機制上可能實現,但在技術上存在很大差異。比如,核技術的提煉過程需要大規模裝置,容易被監管方發現;而人工智慧系統則不同,人的大腦類似一個實驗室,監督人工智慧系統是否合規存在較大難度。
第五個挑戰是地緣政治帶來的問題。對人工智慧治理來說,地緣政治帶來的核心挑戰是中美科技脫鉤問題。關於中美兩國科技合作及其影響,可以藉助圖1來分析。
橫軸表示合作研究是否加強國防,縱軸表示合作研究是否促進經濟。這樣就形構了四個象限:第一個象限(Q1)的活動既不促進經濟也不加強國防,屬於基礎研究型別;第二個象限(Q2)的活動加強國防但不促進經濟,屬於軍民兩用技術型別;第三個象限(Q3)的活動既可能加強國防又可能促進經濟,屬於前沿技術領域,其研究影響具有不確定性;第四個象限(Q4)的活動主要是促進經濟但不加強國防,屬於商業技術領域。

在2017年之前,中美兩個國家在Q1象限對應的基礎研究方面是全世界合作最密切的兩個國家,中美學者聯合發表的論文數量在全球聯合發表論文中位居前列。在Q2軍民兩用技術象限中,由於存在瓦森納協定,美國等西方國家對中國等社會主義國家實施了聯合禁運,導致雙方在這一領域幾乎沒有任何合作。在Q3前沿技術象限中,中美兩國在應對氣候變化領域有一定合作,而在人工智慧和新能源等領域則存在競爭與合作並存的局面。在Q4商業技術象限中,雙方主要是商業技術的經濟合作,主旨是相互促進經濟發展。

2017年之後,

美國採取了“小院高牆”策略,意在與中國科技脫鉤,其實質是將Q2象限的做法推廣到其他象限

,其他象限的合作空間也因此受到了極大的擠壓。尤其是在Q3和Q4象限,美國濫用WTO規則,將國防安全的特例應用於幾乎所有的前沿和商業技術領域,一大批中國公司和研究機構都被列入實體清單,難以進入國際市場或開展國際交流與合作。

在這樣的國際環境下,要討論人工智慧在安全領域的合作,如果僅討論政策或治理問題,或許尚有空間,但一旦涉及具體的技術問題,就勢必面臨重重屏障。在隨時可能受到技術打壓的背景下,中國的技術企業和專家很難與美國同行就如何防範人工智慧的風險進行深入交流。因此,

如何為人工智慧安全治理的國際合作劃出一塊“安全區”,是我們當前面臨的最為緊迫的任務。

應對人工智慧

全球治理挑戰的關鍵策略

面對人工智慧全球治理的諸多挑戰,我們需要採取系統性、多層次的方法來尋求解決方案,以下是未來一段時間亟待考慮和努力落地的若干關鍵策略。

第一,針對人工智慧全球治理整體性的挑戰,需要分類梳理並推動分工合作。

人工智慧治理挑戰複雜多樣,需要進行分類梳理,明確不同機制和機構的角色。當下,試圖一次性構建一個全面的治理體系可能會遇到諸多障礙,因為目前有多種不同的治理機制同時運作。因此,可以透過自上而下與自下而上相結合的方式,將治理任務分解到更加具體的領域,並匹配相應的組織或治理機制。這種分層次、分領域的治理方法有助於進一步提高效率,促進各參與方之間的協同治理。

第二,針對技術路的挑戰,需要把治理思維納入技術開發的起點。

大語言模型的成功標誌著人工智慧技術發展的一個重要轉折點,未來還會有更多的技術突破。把治理思維納入技術開發的起點,意味著要採取源頭治理的策略,對技術開發人員進行技術倫理和風險識別的培訓和教育,建立起人工智慧風險識別與消除機制,從而確保無論人工智慧技術發展遵循何種路

,都有穩健的風險防控機制加以應對。

第三,針對技術治理與技術創新步調不一致的挑戰,可以透過敏捷治理的方式完善技術治理體系。敏捷治理強調政策工具的快速反應和適應性演化,以及政府作為權威主體在其中扮演的主導性角色。

敏捷治理要求技術風險監管部門改革傳統的風險監管思路,

把監管者與被監管者之間的“貓鼠”關係改變為深度交流與相互依賴的互動關係

;對產業發展過程中的風險進行及時評估;發現問題苗頭後及時採取引導性、指向性而非懲罰式、選擇式的監管策略。與此同時,敏捷治理也強調不同主體的廣泛參與。

第四,針對國際治理機制多元性和複雜性的挑戰,一方面要推廣全球公共產品的理念,將人工智慧面臨的各種風險應對視為全球公共產品,而非少數國家或利益集團的專屬資源。當前,不少國際研討依然帶有排他性,這顯然與人工智慧作為全球公共產品的屬性相悖,不利於形成廣泛的合作氛圍。
例如,2023年,在英國舉辦人工智慧安全峰會前,西方媒體對於是否邀請中國參會的巨大爭議就反映了一些國家的狹隘態度。實際上,鑑於中國在人工智慧領域的快速發展及其重要地位,任何旨在確保人工智慧安全的國際努力都必須包括中國方面的參與。只有遵循開放包容的理念,才可能建立起真正有效的全球治理框架。
另一方面要努力發揮聯合國作為全球治理總體框架的協調作用,梳理多元發展環境下形成的各種機制,合併完全重疊或相似的機制,重點發展針對空白領域所需要的治理機制,爭取形成一個相對有序的人工智慧治理生態。
第五,針對人工智慧風險監管執行難的挑戰,一方面要積極推動人工智慧相關領域的技術標準制定並加大執行力度,另一方面要推動各國人工智慧安全研究機構合作研究並制定風險應對預案,以應對人工智慧系統可能出現的自主性強、難以控制所帶來的突發事件。

這類研究不僅需要技術層面的支援,而且需要跨學科的合作,特別是社會科學領域的貢獻。建立國際合作專案,可以更好地應對未知的風險,並發展出更為有效的管理措施。

第六,針對地緣政治領域的挑戰,尤其是美國對中國科技創新領域的打壓態勢,要有選擇性地推動中美科技合作。儘管全面恢復中美兩國在科技領域的合作關係面臨較大困難,但在特定領域內開展有針對性的合作仍具有重要意義考慮到人工智慧作為一項全球性技術,其安全性關乎所有國家的利益,美國從自身利益出發也會考慮與中國共同探討相關議題。

令人欣慰的是,2024年5月14日,中美兩國政府已經啟動了一軌對話,二軌對話也在進行中。這些初步交流為雙方未來更深入的合作奠定了基礎。與此同時,還應進一步拓展多渠道、多層次的雙邊及多邊交流平臺,加強專家之間的溝通與理解,這對於修復和構建互信關係至關重要。

綜上所論,只要我們細緻地梳理問題併合理分工、推廣全球公共產品理念、充分發揮聯合國綜合協調的作用,加強中美合作以及中國與其他國家間的合作,國際社會就有望逐步克服人工智慧全球治理中的主要障礙,共同構建全面綜合的人工智慧風險治理體系,從而為這一新興技術的健康發展奠定堅實基礎。

我們的原創研究產品序列“CF40研究"已在微信小程式端正式上線。訂閱“CF40研究”,您將暢享全年無間斷原創報告、視聽服務、精品圖書贈閱、會員專享主題活動等線上線下超值權益組合。加入我們,開啟這場新知之旅吧!

版面編輯:宥朗|責任編輯:宥朗
視覺:李盼 東子
監製:李俊虎 潘潘
來源:公眾號“探索與爭鳴雜誌”

相關文章