日報
專欄
熱點
國際
活動

人工智慧時代,金融行業如何迎接監管挑戰?(首圖來自圖蟲創意)
國際層面的監管協調
1.G20和G7的努力
G20(二十國集團)早在2019年就通過了以“以人為本”為核心的人工智慧指導原則,強調可信賴的AI技術在促進可持續和包容性發展中的作用。近幾年,隨著生成式AI的崛起,這些原則被不斷細化,並融入到各成員國的政策框架中。
2023年,G7(七國集團)啟動了“廣島AI程序”,並在同年12月通過了《全面AI政策框架》。這一框架提出了促進安全、可信賴AI系統的指導原則,以及推動負責任AI發展的行為準則。其中特別關注生成式AI在金融等高風險行業的應用,並強調了國際合作和標準化的重要性。
2.OECD的AI原則更新
經合組織(OECD)的《AI原則》是全球AI政策制定的重要參考。2024年,OECD對其2019年釋出的AI原則進行了更新,加入了對生成式AI的具體指導。這些更新包括強化透明性、可解釋性和問責性要求;明確對公平性、資料隱私和安全的保護;提出對生成式AI的特殊監管措施,例如防止“幻覺”(hallucination,指AI生成虛假或不準確資訊)和資料洩露。
3.聯合國的首次AI決議
2024年3月,聯合國通過了歷史上第一份AI相關決議,強調AI在促進可持續發展方面的潛力,同時呼籲國際社會採取行動應對AI帶來的倫理和社會風險。2024年9月,聯合國釋出了全球AI治理的最終報告,提出了在資料隱私、技術標準和倫理規範方面加強國際合作的建議。
區域性和國家層面的具體措施
1.歐盟:AI法案(EU AI Act)
歐盟在AI監管方面一直處於全球領先地位。2024年,歐盟正式通過了《人工智慧法案》(AI Act),這是全球首部全面的AI監管法律。其特點包括:
高風險AI系統的要求:這些系統必須滿足透明性、可解釋性、人類監督和資料治理的要求。例如,信用評分模型需要能夠解釋其決策邏輯,並避免基於種族、性別等敏感資料的歧視。
生成式AI的特別規定:要求開發者披露模型是否使用了受版權保護的資料,併為使用者提供內容生成的解釋。
2. 中國:生成式AI的監管探索
2023年,中國發布了《生成式人工智慧服務管理暫行辦法》,並將《人工智慧法(草案)》列入《國務院立法計劃》中預備提請全國人大常委會審議專案。這些法律檔案明確了AI開發和應用中的監管底線:
此外,中國監管機構正在探索如何透過沙盒機制測試生成式AI的金融應用,以確保其在信貸和保險等領域的安全性。
3. 美國:多層次的監管框架
美國的AI監管以技術中立和行業自律為主,但近年來逐漸加強了針對金融領域的具體規定。
4. 新加坡與卡達:發展負責任AI
新加坡金融管理局(MAS)釋出了“公平性、倫理、問責和透明性”(FEAT)原則,並透過“Veritas Initiative”幫助金融機構評估其AI模型的合規性。此外,新加坡還推出了“GenA.I. Sandbox”,允許銀行在受控環境中測試生成式AI的應用。
2024年,卡達央行釋出了AI使用指南,提出了明確的高風險AI系統定義,並要求所有涉及金融服務的AI系統配備“人類監督”機制。這一指南還特別關注AI模型的可解釋性和資料安全性。
參考文獻
Crisanto, J. C., Leuterio, C. B., Prenio, J., & Yong, J. (2024). Regulating AI in the financial sector: Recent developments and main challenges. Financial Stability Institute Insights, No. 63. Bank for International Settlements. [online] Available at: https://www.bis.org/fsi/publ/insights63.htm [Accessed 18 Dec. 2024].
REVIEW




