
已結課!最後的最大優惠!掃碼立享!
整理:何淵,DPOHUB主理人
一、法案背景與進展
-
2024 年 12 月 5 日,聯邦參議院內部臨時人工智慧委員會(CTIA)批准了第 2338/2023 號法案的替代報告。該法案旨在為巴西人工智慧系統的使用構建法律框架,其重要性不言而喻,因為它將直接影響巴西在人工智慧領域的發展方向與規範程度。此法案已定於 12 月 10 日在參議院全會進行表決,且透過的可能性頗高。 -
該法案最初由參議員羅德里戈・帕切科(Rodrigo Pacheco,PSD/MG)提出,背後是立法部門任命的法學家委員會長達一年的辛勤工作。在整個 2024 年,此法案一直處於激烈的辯論漩渦之中,報告員參議員愛德華多・戈麥斯(Eduardo Gomes)發揮了關鍵的引領作用。
二、基本概念和權利
(一)適用範圍與核心原則
-
法案的適用範圍有著明確界定,其不適用於 “在人工智慧系統、應用程式或模型投放市場之前的調查、研究、測試和開發活動”,但前提是必須嚴格遵守消費者保護、環境法和個人資料保護法規。同時,“僅提供用於人工智慧系統的儲存基礎設施和資料傳輸的服務” 也被排除在適用範圍之外。這一規定旨在平衡創新發展與規範管理之間的關係,確保在促進人工智慧技術進步的同時,不損害其他重要領域的利益。 -
法案以一系列基本原則為基石,其中保護基本權利處於核心地位,這一原則貫穿於整個立法體系之中。此外,促進負責任的創新和競爭力、確保系統安全可靠以造福人類也是不可或缺的重要原則。這些原則共同構成了巴西人工智慧發展的指導方針,為後續的規則制定和實踐操作提供了基本準則。
(二)概念定義的明確闡釋
-
對於 “人工智慧系統”,法案給出了清晰的定義:這是一種基於機器的系統,具有不同程度的自主性,能夠處理資料或資訊,以生成諸如預測、內容、推薦或決策等結果,進而影響虛擬、物理或現實環境。這一定義涵蓋了人工智慧系統的基本特徵和功能範圍,為準確識別和規範人工智慧技術提供了基礎框架。 -
“通用人工智慧系統” 則被定義為基於大規模資料集訓練模型的人工智慧系統,其具備強大的通用性,能夠執行多種任務並服務於不同目的,甚至包括那些未曾專門設計或訓練的任務,且可整合到各種系統或應用程式中。這一概念的界定反映了人工智慧技術的發展趨勢和廣泛應用前景。 -
“生成式人工智慧系統” 被專門定義為旨在生成或在不同程度自主性下顯著修改文字、影像、音訊、影片或軟體程式碼的人工智慧模型。隨著生成式人工智慧技術的迅速崛起,這一精準定義有助於針對其獨特的技術特性和潛在影響制定相應的規範和管理措施。
(三)利益相關者的界定與權利保障
-
法案明確了人工智慧領域的利益相關者,包括開發者、分發者和應用者。開發者是指直接或委託開發人工智慧系統的自然人或法人,他們以盈利或非盈利的方式將系統推向市場或應用於服務;分發者負責使人工智慧系統可供第三方應用;應用者則是以自身名義或利益使用人工智慧系統,並進行相關配置、維護和資料支援的主體。這種明確的界定有助於在法律框架內清晰劃分各方責任,確保每個環節都能依法依規執行。 -
在借鑑反歧視法的基礎上,法案保留了 “濫用或非法歧視” 和 “間接濫用或非法歧視” 的概念定義。“濫用或非法歧視” 指在公共或私人生活中,基於個人特徵,以非法或濫用的方式取消或限制他人依法享有的權利或自由的行為;“間接濫用或非法歧視” 則發生在看似中立的規則、做法或標準對特定個人或群體造成不利影響的情況下,前提是這些規則、做法或標準本身是非法或濫用的。這兩個定義為防止人工智慧系統在應用過程中出現歧視性現象提供了法律依據,確保每個人都能在平等、公正的環境中受到人工智慧技術的影響。
(四)新法律概念的引入與解讀
-
法案引入了 “初步評估” 這一概念,要求在使用或向市場推出人工智慧系統之前,相關主體必須進行簡化的自我評估。這一過程旨在根據法律標準和技術發展現狀,對系統的風險水平進行分類,以確定其是否符合法案規定的義務。透過初步評估,人工智慧主體能夠提前識別潛在風險,採取相應措施,從而提高系統的安全性和合規性。 -
“演算法影響評估” 也是法案中的關鍵概念,它要求對人工智慧系統對基本權利的影響進行全面分析,包括對可能產生的負面影響制定預防、減輕和糾正措施,同時積極探索增強系統積極影響的方法。這一評估不僅有助於保護個人和社會的基本權利,還能促使人工智慧系統在設計和應用過程中更加註重社會責任和倫理考量。
(五)系統性風險的關注與應對
-
法案高度重視人工智慧可能帶來的系統性風險,特別是通用或生成式人工智慧系統對個人和社會基本權利造成的潛在重大不利影響。這種系統性風險可能源於演算法偏差、資料濫用、決策不可解釋性等多個方面,一旦爆發,可能對社會秩序、公平正義和個人自由產生深遠影響。因此,法案透過一系列規則和措施,旨在提前預警、有效防範和妥善應對這些風險,確保人工智慧技術在巴西的健康、可持續發展。
三、風險監管方面的深度剖析
(一)風險監管的核心地位與爭議歷程
-
風險監管是巴西人工智慧立法的核心組成部分,其理念在於根據人工智慧系統對個人利益和基本權利構成的風險水平,動態調整相應的義務。這一理念在 2021 – 2022 年期間引發了激烈的爭議,當時許多私營部門傾向於 “基於原則的立法”,主張減少風險監管機制。然而,正如在聯邦參議院公開聽證會上所強調的,缺乏針對過度和高風險情況的具體規則的聯邦立法將難以有效應對人工智慧帶來的複雜挑戰。實際上,合理的風險監管機制不僅能夠保障公共利益,還能透過靈活的規則設計,為小企業和創新企業創造有利的發展環境,促進市場的公平競爭和創新活力。
(二)風險分級與義務設定的保留與強化
-
法案的核心結構在風險分級及義務設定方面得以保留,這為人工智慧系統的監管提供了堅實的框架。根據這一結構,人工智慧主體在市場引入、應用或使用系統之前,被鼓勵進行初步評估,以準確判斷其風險水平。這一評估過程必須緊密遵循法律標準,並充分考慮技術發展的最新動態,確保評估結果的科學性和可靠性。初步評估的結果不僅是人工智慧主體證明自身合規性的重要依據,也為監管部門實施差異化監管提供了關鍵參考,有助於將有限的監管資源精準配置到高風險領域,提高監管效率。
(三)風險型別分類與禁止事項的明確規定
-
法案對風險型別進行了細緻分類,從不可容忍的過度風險到在特定措施下可容忍的高風險和低風險,形成了一套完整的風險評估體系。在此基礎上,立法明確禁止開發、實施和使用人工智慧系統用於一系列特定行為,這些行為涵蓋了從煽動有害行為、利用個人脆弱性到非法評估預測、製作傳播有害內容等多個方面,旨在全方位保護個人和社會的健康、安全及基本權利。
(四)高風險人工智慧系統的詳細界定與監管
-
高風險人工智慧系統被嚴格定義為用於特定目的和背景,且對個人或群體產生不利影響的可能性和嚴重性較大的系統。這些系統廣泛涉及關鍵基礎設施安全管理、教育和就業決策、公共服務分配、司法輔助、自動駕駛、醫療診斷、犯罪分析、行政當局評估、生物特徵識別以及領土准入評估等眾多關鍵領域。針對這些高風險系統,法案保留了當局進行分類監管的權力,並明確了監管的具體方向和重點,確保高風險人工智慧系統在嚴格的監管框架內執行,最大程度降低潛在風險。
(五)演算法影響評估的關鍵作用與具體要求
-
演算法影響評估作為人工智慧法中用於透明度和損害預防的核心法律工具,其重要性不言而喻。法案詳細規定了演算法影響評估的各項要求,包括:明確義務主體為將高風險人工智慧系統引入或在市場上流通的開發者或應用者;根據主體在產業鏈中的角色和參與程度靈活校準評估義務;允許主體自主建立評估方法,但必須確保對基本權利的風險和收益、緩解措施以及管理措施的有效性進行全面評估;詳細規定了資訊共享的具體情形,確保監管部門能夠及時掌握關鍵資訊;強調評估必須在系統引入市場之前,結合具體背景進行,以確保評估結果的準確性和實用性;鼓勵公司和私營部門與主管當局合作,共同制定評估的一般標準和要素,提高評估的科學性和規範性;最後,明確評估結論在尊重商業和工業秘密的前提下應向公眾公開,接受社會監督,增強人工智慧系統的透明度和公信力。
四、國家人工智慧監管和治理系統(SIA)的全面解讀
(一)SIA 的組成與功能架構
-
法案建立了國家人工智慧監管和治理系統(SIA),這一系統由多個關鍵部分組成,包括國家資料保護局(ANPD)、部門當局(如國家電信局、國家衛生監督局、國家民航局、國家電力能源局、中央銀行等)、人工智慧常設監管合作委員會(CRIA)和人工智慧專家和科學家委員會(CECIA)。這一多元化的組成結構整合了政府各部門、專業機構和專家資源,形成了一個全方位、多層次的監管和治理體系。
(二)各組成部分的職責分工與協同合作
-
國家資料保護局(ANPD)在 SIA 中扮演著協調者的關鍵角色,負責統籌各方資源,促進不同部門之間的有效溝通與協作。部門當局憑藉其專業領域的監管經驗和職能優勢,在各自負責的領域內對人工智慧系統實施具體監管,確保行業規範的嚴格執行。人工智慧常設監管合作委員會(CRIA)致力於制定統一的指導方針,為整個監管體系提供戰略方向和政策框架,並透過與部門當局和民間社會簽訂技術合作協議,促進各方資源的整合與共享。人工智慧專家和科學家委員會(CECIA)則匯聚了專業領域的頂尖人才,他們憑藉深厚的學術造詣和豐富的實踐經驗,負責對人工智慧的技術和科學發展進行深入研究和指導,確保監管措施在技術層面的合理性和前瞻性。
(三)SIA 在人工智慧監管中的整體作用與意義
-
SIA 的建立旨在加強和提升部門當局的監管、制裁和規範能力,使其在統一的框架下協同工作,形成監管合力。透過促進不同部門之間的資訊共享、協調行動和經驗交流,SIA 能夠有效應對人工智慧技術跨領域、複雜性的特點,確保監管的全面性和有效性。同時,SIA 積極尋求與橫向問題的監管機構進行合作,如與環境保護、消費者權益保護等相關機構建立協同機制,共同應對人工智慧發展帶來的綜合性挑戰,推動人工智慧技術在巴西的健康、可持續發展。
五、激勵措施的具體分析
(一)對中小企業的激勵政策
-
為促進中小企業在人工智慧領域的發展,法案提出了實驗性監管環境(沙盒)這一創新舉措。在沙盒機制下,中小企業在有限時間內可以在相對寬鬆的監管環境中開發、測試和驗證創新的人工智慧系統,從而降低創新成本和風險。主管當局和部門當局負責制定詳細的沙盒運營規則,包括申請流程、運營期限、監管要求等,確保沙盒機制的公平、透明和有效執行。同時,部門當局被要求為微型和小型企業、初創企業以及公共和私營科學、技術和創新機構(ICTs)提供優先進入測試環境的機會,這有助於這些企業和機構在人工智慧領域快速成長,激發市場創新活力。
(二)對可持續發展的激勵措施
-
法案高度重視人工智慧在可持續發展方面的潛力,透過一系列措施鼓勵各州和市政府積極推動以人工智慧為重點的創新。這包括促進公私夥伴關係的建立,整合政府、企業和社會資源,共同投資於人工智慧研發專案;優先支援有助於提高國家技術和資料自主權的研究,增強巴西在全球人工智慧領域的競爭力;為中小企業提供資金支援,幫助其獲取物理和技術人工智慧資源,縮小數字鴻溝;積極鼓勵建立人工智慧多學科研究、開發和創新中心,促進學術研究與產業實踐的深度融合,提升巴西人工智慧產業的整體創新能力。在環境方面,法案明確要求公共和私營實體優先使用節能和資源合理利用的人工智慧系統,推動人工智慧技術與環境保護的深度融合,實現經濟發展與環境保護的雙贏。此外,未來人工智慧常設監管合作委員會(CRIA)將與環境和氣候變化部密切合作,共同研究和制定認證計劃,以進一步減少人工智慧系統對環境的影響,促進可持續發展目標的實現。
六、對勞動者和內容創作者保護的細緻闡述
(一)對勞動者權益保護的調整與保留
-
在勞動者權益保護方面,法案最終文字雖有所調整,但仍保留了一些關鍵要素。一方面,當局之間的合作得到進一步加強,主管當局、部門當局以及人工智慧監管合作委員會(CRIA)將與勞動部攜手合作,共同制定指導方針。這些方針旨在實現多個重要目標,如減輕人工智慧對工人的潛在負面影響,特別是防範因技術進步導致的失業風險和職業發展受限問題;積極挖掘人工智慧對工人的積極影響,透過改善工作環境、最佳化工作流程等方式,提高工人的健康水平和工作場所安全性;重視工人在勞動過程中的談判工具和集體協議,保障工人的合法權益;大力促進持續培訓和技能建設計劃的開展,幫助工人適應人工智慧時代的職業需求,提升其職業競爭力和發展空間。另一方面,法案也對一些具體規則進行了調整,如刪除了關於遏制大規模裁員和工人參與演算法影響評估的詳細規定,這在一定程度上引起了社會關注,需要在後續的實踐中進一步觀察和評估其影響。
(二)對內容創作者權利保護的全面保障
-
法案為內容創作者提供了全方位的權利保護。首先,使用受版權及相關權利保護內容的人工智慧開發者必須履行告知義務,透過在易於訪問的網站上釋出摘要,詳細說明在人工智慧系統開發過程中使用的受保護內容,同時嚴格遵守商業和工業秘密保護規定。其次,版權及相關權利持有人被賦予了反對權,若發現人工智慧系統使用其內容違背自身利益,有權禁止該使用行為。此外,即使在訓練過程後,禁止在人工智慧系統資料庫中使用受保護作品和內容,開發者仍需承擔損害賠償責任,包括精神和物質方面的賠償,這為內容創作者提供了強有力的法律救濟手段。再者,法案建立了公平報酬制度,要求人工智慧主體在使用受保護內容時,必須按照合理、公平的原則向權利持有人支付報酬,報酬計算需綜合考慮多種因素,如人工智慧主體的規模、市場競爭影響等,同時保障權利持有人的集體談判權,確保其能夠在公平的市場環境中獲得合理回報。最後,法案還特別強調人工智慧系統使用描繪或識別自然人的影像、音訊、語音或影片內容時,必須充分尊重人格權,這體現了法律對個人尊嚴和權利的全面保護。需要注意的是,這些保護規則在特定情況下,如科學研究組織、博物館、公共檔案館、圖書館和教育機構進行人工智慧系統研發時,若滿足合法訪問、非商業目的以及合理使用範圍等條件,則可適當豁免,以平衡公共利益與個人權利保護之間的關係。
七、最終文字的變化與潛在風險評估
(一)言論自由和資訊完整性相關變化
-
法案最終文字在言論自由和資訊完整性方面發生了顯著變化。報告員以保障言論自由這一民主社會的基本價值為由,對相關條款進行了調整。具體而言,第 15 條中原本涉及資訊完整性、言論自由、民主程序和政治多元化作為監管和識別新的高風險人工智慧場景標準的風險考量被刪除。這一變動引發了廣泛關注,因為資訊完整性和言論自由在人工智慧時代面臨著諸多新挑戰,如虛假資訊傳播、演算法偏見影響輿論等。這一調整可能會影響對高風險人工智慧場景的準確識別和有效監管,需要在 -
後續實踐中密切關注其影響。同時,法案新增了第 77 條,明確規定對可能影響言論自由的線上內容傳播相關方面的監管,包括使用人工智慧進行內容稽核和推薦,只能透過具體立法進行。這一規定進一步明確了不同立法在相關領域的職責分工,但也可能導致在實際操作中需要更多的協調與銜接工作,以確保對人工智慧在內容傳播領域的監管既保障言論自由,又維護社會公共利益。 (二)生成式人工智慧系統開發者責任條款的變動
-
最終文字刪除了原法案中關於生成式人工智慧系統開發者在商業化之前必須採取措施識別、分析和減輕有關基本權利、環境、資訊完整性、言論自由和資訊獲取等合理可預見風險的要求。這一變化引發了業界和社會各界的擔憂,因為生成式人工智慧技術的快速發展帶來了一系列新的風險,如深度偽造內容對個人聲譽和社會穩定的影響、演算法生成內容的不可控性等。如果開發者無需承擔這些風險防範責任,可能會導致相關風險的增加,對個人權利和社會秩序構成潛在威脅。 (三)社會組織的關注
-
有社會組織特別是網路權利聯盟(2024 年),對法案最終文字的變化保持高度警惕。他們警告說,這些變化可能為引入壓制性修正案開啟大門,從而刪除法案中關於版權和內容創作者保護的關鍵規則。這些規則對於保護文化產業的創新動力、創作者的合法權益以及文化多樣性至關重要。一旦這些規則被削弱或刪除,將對巴西的文化創意產業和知識經濟發展產生負面影響,阻礙創新和文化繁榮。 (四)高風險活動法規和監管能力的潛在削弱
-
除上述變化外,還存在對高風險活動法規進行修改以及刪除確立主管當局干預可能性規範的風險。這可能會嚴重削弱國家人工智慧監管和治理系統(SIA)未來的監管和監督能力,使得一些高風險的人工智慧應用無法得到有效的管控。例如,在關鍵基礎設施、司法輔助、自動駕駛等領域的高風險人工智慧系統,如果缺乏適當的監管,可能會引發安全事故、侵犯個人權利或破壞社會公平正義等問題。 (五)呼籲保護成果與推動法案批准
-
面對這些潛在風險,資料隱私巴西等組織呼籲各方重視法案在民主討論中取得的成果,確保這些成果不被強大經濟團體和私人利益的壓力所破壞。他們強調,第 2338/2023 號法案的批准對於巴西在人工智慧領域建立公平、負責任的發展框架至關重要,是實現人工智慧技術與社會價值平衡的必要步驟。
八、結語
該法案的批准對巴西人工智慧發展意義重大,希望其成果得以保留,推動巴西在人工智慧領域朝著保護權利和構建公平資訊生態系統的方向發展。只有透過民主、透明的立法過程,充分考慮各方利益和社會整體利益,才能確保巴西在人工智慧時代既能充分享受技術帶來的機遇,又能有效應對各種挑戰,實現可持續發展。
。。。。。。
全部AI及資料中譯本及資訊請加入