
長期以來,關於數智時代技術和經濟社會規則問題的討論,過多集中於道德層面、理念層面和意願層面,相關原則被反覆陳述討論,但並沒有置於可分析的學術框架中深化,缺乏可測度和可比較的維度或指標,因而在相當程度上無法用於判斷不同技術或產品的優劣,難以系統權衡不同規則的實施成本與社會收益,治理原則落地實踐更是推進緩慢。
從經濟學的角度,可以用是否促進“社會資源配置效率提高以及發展成果相對公平分配”作為AI發展方向的評判核心標準。聚焦AI對社會公平的影響來看,其衝擊可被分為兩類:一類是對公平性原有平衡的衝擊,另一類是AI原生能力對公平的衝擊。
絕大部分市場的規則分為兩種,一是弱規則,內生於市場博弈,二是強規則,主要是政府的監管和法律。AI時代,目前看到以及想象未來應該還是這樣的模式,弱規則與強規則共同發揮治理作用。其中,經濟學角度的AI治理強規則要包括負面清單管控,透明度要求以及保護數字弱勢群體權益。
由於技術演進及其對經濟社會規則的衝擊很可能快於相應強監管能力的提升,僅靠政府力量難以有效行動,強監管可能一時跟不上,各種弱規則很可能是治理主力。多方合作治理就有多方理念和利益代入,如何處理好其中各種權重與關係,需要社會科學多學科匯聚專業知識和能力。
人工智慧發展與治理
——經濟學應有什麼視角和標準?
文 | 江小涓

今天我的發言聚焦於本人近幾年一個重點關注的領域——人工智慧發展與治理的關係。這是一個全社會關注的問題,幾乎所有的學科都在研究,經濟學和公共管理學科也不例外。不過,當前經濟學科與公共管理學科在該領域研究特點不突出,聚集點與社會熱點相似,看不出學科特性的對映,也缺乏學科邏輯的合理支撐。我的發言從經濟學視角探討三個問題。
長期以來,關於數智時代技術和經濟社會規則問題的討論,過多集中於道德層面、理念層面和意願層面,例如有關人工智慧發展規則與倫理問題的討論中,尊重人、服務於人、透明、責任、向善、包容等等是主流表達。
2017年生命未來研究院(FLI)釋出《阿西洛馬人工智慧原則》(Asilomar AI Principles)提出原則:安全性、故障透明性、審判透明性、責任、價值觀一致、人類價值觀、個人隱私、自由與隱私、共享利益、共同繁榮、人類控制、非顛覆性。此後多年這些原則被不同場合和機構反覆強調。
直至2025年2月12日,巴黎AI峰會上58國簽署《關於發展包容、可持續的人工智慧造福人類與地球的宣告》,提出6條優先事項,包括促進人工智慧的可及性以減少數字鴻溝,確保人工智慧開放、包容、透明、合乎道德、安全、可靠並值得信賴,考慮了所有人的國際框架等等。
這種原則性的描述無疑是正當、有共識和令人嚮往的,業界和社會認同度較高。多年來這些原則被反覆陳述討論,但並沒有置於可分析的學術框架中深化,缺乏可測度和可比較的維度或指標,因而在相當程度上無法用於判斷不同技術或產品的優劣,難以系統權衡不同規則的實施成本與社會收益,治理原則落地實踐更是推進緩慢。
一種技術經濟效應的評估,根本在於其是否有利於經濟發展和社會公平,這也是經濟學“理性”的本質要求。因此,從經濟學的角度,可以用是否促進“社會資源配置效率提高以及發展成果相對公平分配”作為AI發展方向的評判核心標準。
AI帶來社會資源配置效率提高的作用無人質疑,擔憂主要是源自AI對社會公平的影響。從這個角度看,AI的衝擊可以分為兩類:
一類是對公平性原有平衡的衝擊。一是大型企業對各種資源的支配地位加強,對資料、算力和演算法的掌控能力使得大型企業和大型組織市場支配地位更加突出,中小企業、中小投資者地位更加弱化。
二是資源配置中“演算法”的影響日益增強。大資料可以嵌入傳統資源配置決策過程,例如誰可以以什麼條件獲得貸款及其他資源。資源配置進一步向優勝者傾斜,大者愈大、優者更優,產生公平性方面的持續衝擊。
三是各種生產要素中勞動力的相對重要性下降,就業機會減少、收入減少。技術壟斷力量帶來的經濟租金無法在技術與資本持有者和勞動者之間共享,導致經濟發展的包容性較差。
一類是AI原生能力對公平的衝擊。主要是規模報酬遞增甚至“Scaling Law”的出現,人工智慧大模型對市場競爭帶來新挑戰,呈現邊際報酬遞增現象,大模型表現更加強勢。
模型愈大,最佳化迭代需要的引數愈少;或者相同引數量下,模型愈大,迭代最佳化步驟更少,強者愈快愈強。還有新能力湧現。一旦超過一個閾值,大模型新生出來的認知、理解和解決問題的能力,是小模型完全沒有的,並不是一個“你多我少”“你先我快”的情況,而是“我有你無”的碾壓式能力。
任何市場有效運轉都需要規則,規則之所以重要,是因為事關“交易”和“預期”。
絕大部分市場的規則分為兩種,一種是弱規則,內生於市場博弈,沒有公權力和強制力,諸如自願交易、討價還價、履行契約等都是各類市場內生規則。另外一類是強規則,主要是政府的監管和法律,用來約束破壞市場公平競爭的力量,防止劣幣驅逐良幣,以及約束內生於市場或外生於強權的壟斷勢力。
AI時代,目前看到以及想象未來應該還是這樣的模式,弱規則與強規則共同發揮治理作用。
AI治理中,弱規則依然泛在、基礎而有效。例如,內部外部競爭壓力推動平臺構建自己生態圈內的演算法治理規則。內部平衡各方利益使生態圈中各相關方可以依規相處並不斷擴大共識者數量,不斷擴大平臺規模。外部在可競爭環境中爭取自己生態圈利益最大化。
再如意見表達和輿情壓力,網路空間的意見表達極為便利,社會各方與技術方就創新的可接受性做出反饋,並對某些行為和動向構成有效約束。當社會輿情一致反對某類大規模減少就業者數量的AI技術應用時,的確形成有效約束。
再如軟體和模型開源,開源技術源於軟體,已經廣泛用於各類網際網路物聯網以及大模型。開源最快分享知識,賦能更多主體具備AI時代的競爭力,減少技術壟斷帶來社會福利損失。這些都是各利益相關方相互博弈和互動產生的區域性性、條線性或社群性的治理規則,雖然範圍、力度以及強制力都有限,但的確有效果,防止事態走向極端。
經濟學角度的AI治理強規則要包括以下幾種。
一是負面清單管控。例如約束大型網路平臺企業的壟斷行為,要允許第三方在特定情況下與大平臺提供的服務進行互動操作,要允許使用者訪問他們在平臺上業務運營產生的資料,不得優待平臺自身或關聯企業提供的服務和產品,不得阻止使用者解除安裝任何預安裝的軟體或應用程式等。
二是透明度要求。只有保障各方知情和有效參與治理,公眾知情和表達意願才能形成弱監管。
三是保護數字弱勢群體權益,維護公平底線。當前要高度重視失業衝擊,處理不好可能會帶來比較大的社會問題。
現在技術帶來的失業問題與以往不同,過去多輪技術革命,新創造的崗位比替代掉的崗位多,但AI還會如此嗎?目前看上去似乎難以認為歷史會重現。
尤其在AI時代,資訊廣泛傳播使全社會都能更多瞭解正在發生的事態及其影響,所謂“無知之幕”支撐社會共識形成與理性決策的“無知”不復存在,以正零和博弈或者正加總效應來論證技術發展的“利弊”更不易被接受。當社會認為贏家的“利”不能完全抵消輸家的“弊”時,這個問題更需要得到及時有效地處理。
最後想說的是,人文社會科學必須走到時代變遷的前端,點亮AI時代人文社會科學的理性之光。人工智慧進步對人類自身和人類社會帶來深刻影響,有些影響是不可逆的,因此不能交由技術專家來決策。每個人都有發言權,是不是願意我們的生理心理被這樣改變,是不是願意看到社會這樣變遷。
由於技術演進及其對經濟社會規則的衝擊很可能快於相應強監管能力的提升,僅靠政府力量難以有效行動,強監管可能一時跟不上,各種弱規則很可能是治理主力。多方合作治理就有多方理念和利益代入,如何處理好其中各種權重與關係,需要社會科學多學科匯聚專業知識和能力。

我們的原創研究產品序列“CF40研究"已在微信小程式端正式上線。訂閱“CF40研究”,您將暢享全年無間斷原創報告、視聽服務、精品圖書贈閱、會員專享主題活動等線上線下超值權益組合。加入我們,開啟這場新知之旅吧!





版面編輯:宥朗|責任編輯:宥朗
視覺:李盼 東子
監製:李俊虎 潘潘
來源:“清華服務經濟與數字治理研究院”公眾號