

譯者|陳睿怡 中國政法大學
一審|Jingwen
二審|王槐語 加州大學伯克利分校 LL.M.
編輯|張程琳 蘭州財經大學
Izzy 美國西北大學 LL.M.
責編|劉一賢 國際關係學院

國產人工智慧(AI)大模型Deep Seek近來在海內外獲得了極高的關注度,標誌著中國在AI技術創新應用領域取得顯著進展。與此同時,我國進一步強調推動AI在各類實際場景中的應用,力圖透過AI的廣泛適用推動為技術發展。[1]而在監管層面,儘管中國已經出臺了一系列針對人工智慧應用場景的法規和安全要求,當前關於人工智慧責任的界定仍十分模糊——由於人工智慧演算法的高度複雜性,現行法律體系中的相關規定尚未充分考慮人工智慧技術風險的特殊性,導致責任認定的標準與實施路徑仍然不夠清晰,亟待進一步完善和細化。
就“過錯責任”與“無過錯責任”路徑的選擇而言,[2]筆者認為,在推動人工智慧技術創新的背景下,採取“過錯責任”路徑具有多重優勢:一方面,該路徑能夠有效避免對初創企業施加過重的合規負擔與運營成本,從而為技術創新提供更大的發展空間;另一方面,它亦可促使人工智慧企業主動構建並完善內部風險監管體系,在實踐中不斷探索和最佳化防護措施。基於上述考量,本文將進一步探討在當前技術發展下“過錯責任”的認定與證成。

(圖片源於網路)
我國人工智慧演算法服務提供者的過錯責任認定框架
我國目前對於人工智慧的監管規定,沿襲了原有對網際網路服務的規定內容和監管模式。[3]根據《民法典》第1195條、第1197條相關規定,對於透過網際網路平臺提供服務的主體,其侵權責任的歸責標準為“知道或者應當知道”。就“知道或應當知道”的認定,《最高人民法院關於審理侵害資訊網路傳播權民事糾紛案件適用法律若干問題的規定》第九條第四款中將“網路服務提供者是否積極採取了預防侵權的合理措施”作為認定要件之一;[4]類似地,《最高人民法院關於審理利用資訊網路侵害人身權益民事糾紛案件適用法律若干問題的規定》第六條第五款將認定要素定義為“網路服務提供者採取預防侵權措施的技術可能性及其是否採取了相應的合理措施”。[5]
基於前述的規制要求,對於可能產生致害風險的人工智慧服務提供者來說,為排除過錯責任,應證明其已履行了“符合當下技術發展水平”的安全保障義務。這一責任安排促使服務提供者更加主動地採取周密的預防措施,確保其技術能夠充分遵守當下技術發展的安全標準。如果在盡到了前述安全保障義務,並採取符合當時技術發展要求的措施後,仍然導致損害結果,則可以適用非過錯責任的原則。這種過錯推定的責任分配機制,有利於保護在舉證能力、資訊獲取上處於弱勢地位的被侵權人,[6]並在個案中不斷調整適應人工智慧技術的發展變化。
然而需要指出的是,考慮到人工智慧的“演算法黑箱”和內容生成的複雜邏輯,這一“符合當下技術發展水平”的安全保障義務的履行標準在認定中也常常面臨挑戰[7]——在人工智慧技術的應用中,演算法的自主性和不透明性使得服務提供者很難完全掌握系統的執行邏輯,尤其是在演算法進行內容生成、決策或預測時,認定服務提供者是否構建了“合理措施”愈加困難複雜。

(圖片源於網路)
人工智慧演算法服務提供者的“合理措施”標準及適用
在判斷前述“合理的防範措施”要件時,若人工智慧服務提供者未能遵守規範性檔案中關於安全保護的具體要求,可推定其存在過錯。例如,若人工智慧服務提供者未能履行現行法規明確要求的演算法備案等義務,則可推定其在演算法安全方面存在疏忽,從而構成過錯。[8]歐盟在《人工智慧法》中亦針對人工智慧侵權引入了“可反駁的推定”機制,以此在平臺的過錯與人工智慧所導致的侵權結果之間建立推定的因果關係。[9]該機制要求,在人工智慧系統可能引發風險的情況下,平臺需承擔一定的舉證責任,以證明自身已盡到合理的防範義務。
需要特別強調的是,前述推定“過錯”,應限於對違反規定本身的過錯,而不應被不當擴大至對演算法服務所致損害結果的過錯——即便服務提供者已嚴格遵守所有保護性規範,受演算法特性影響仍可能出現不可預見的損害後果。因此,合理的推定應圍繞服務提供者對既定合規義務的履行情況展開,而非直接推定其對最終損害後果負有過錯。
而對於法律尚未透過保護性條款予以明確規定的內容——儘管法律並未明確要求建立內部體系性監管框架,但如果演算法服務提供主體(企業)缺乏有效的內部監管體系和監督機制,則可能需要對損害承擔過錯責任。[10]尤其是在缺乏必要的演算法風險管理措施,或在明知或應當知曉存在潛在風險漏洞(“red flags”)的情況下未採取相應的防護措施,可能被認定為存在過錯責任。
在美國法律體系下,董事的信義義務(fiduciary duty)與企業內部監管義務的要求在一定程度上相互契合,並可為演算法服務提供主體的合規義務提供借鑑。例如,在Marchand vs. Barnhill一案中,[11]特拉華州最高法院強調,董事會應當針對已知的風險建立有效的內部監督體系。在In re Clovis Oncology, Inc.案中,法院則援引了In re Caremark International, Inc.案中的標準,[12]進一步明確了“特定風險的關注義務”應包括“善意監督關鍵任務風險義務”(make good-faith efforts on monitoring mission-critical risks),並將監督義務歸入董事注意義務(duty of care)範疇。前述案件雖然主要集中於股東派生訴訟中對於董事責任的認定,然而隨著演算法公司內部監管體系構建要求的逐步強化,法院已經開始在判決中要求董事個人因演算法安全漏洞承擔法律責任。[13]此外,美國證券交易委員會也日益強調演算法公司董事會的演算法安全責任。[14]考慮到演算法安全風險的複雜性和危險性,以及其對公司可能造成的嚴重危害後果,[15]前述案件中的認定標準正在演算法安全合規領域逐步發展,併成為認定企業責任的依據。[16]
在現有實踐中,眾多大型演算法公司已透過設立專門機構來確保AI演算法安全。例如,Meta設立了監督委員會(Oversight Board),專門負責對Facebook和Instagram平臺上的推薦演算法及相關內容進行監督;[17]微軟成立了“人工智慧、倫理與工程研究委員會”(AETHER Committee);[18] DeepMind透過審查委員會(Institutional Review Committee, IRC)對演算法研發進行監督。[19]這些專門機構不僅是內部風控體系的重要組成部分,也承擔著履行社會責任和維護企業聲譽的職能。儘管中國現行法律體系尚未完全細化針對人工智慧演算法的監管要求,但《網路安全法》《個人資訊保護法》《網際網路資訊服務演算法推薦管理規定》《生成式人工智慧暫行管理辦法》及相關技術標準已提出了人工智慧安全標準的具體要求和實踐指導,可為人工智慧服務提供者的內部監管體系構建提供有益的輔助參考。
此外,在沒有明確的法律監管或標準要求下,行業內廣泛採納的做法所形成的合理預防標準,或可成為認定是否履行前述“合理措施”義務的輔助標準之一。在新興行業中,由於技術和實踐的快速發展,現有的監管框架往往尚未完全建立,行業標準和最佳實踐也處於不斷演進的過程中,很難迅速確定哪種監管措施能夠有效應對行業所面臨的挑戰。因此,在缺乏完善監管的情況下參考行業內的普遍做法,成為評估主體是否履行合理措施義務的一個重要途徑[20]——如果大多數行業參與者普遍採取了某種特定預防措施,那麼“是否採取該預防措施”往往會成為判斷過失與否的有力證據。[21]換言之,即使沒有明確法律要求,行業普遍接受的做法本身即構成合理的預防標準。
與此同時,這些行業慣例和實踐也為後續監管標準的成文化提供了重要依據——透過市場主體的探索,協助確立行業內普遍認可的安全防範措施和風險管理策略。以美國為例,《人工智慧應用規範指南》(Guidance for Regulation of Artificial Intelligence Applications)明確指出,應當確保市場主體充分參與規則制定的各個階段。[22]此種做法不僅能確保監管措施更符合行業實際需求,還能夠在多方協作下推動標準的建立與完善。2023年7月21日,包括Amazon、Anthropic、Google、Meta等在內的主要AI企業與政府部門達成合作承諾,共享關於AI風險管理的實踐經驗,以透過集體智慧協助規定的制定與最佳化。[23]

(圖片源於網路)
啟示與展望:平衡技術創新與責任約束
隨著人工智慧技術的快速發展,各國紛紛採取立法或擴充套件現有法規適用範圍的方式應對人工智慧技術所帶來的風險。例如,美國證券交易委員會將《證券交易法》第18條的適用範圍擴充套件至AI演算法應用,針對投資諮詢中的AI演算法適用展開調查。[24]同時,《聯邦貿易委員會法》第5條(FTC Act Section 5: Unfair or Deceptive Acts or Practices)也被擴充套件至AI領域中的“欺騙性或不公平行為”,[25]並同時開展了“AI合規執法行動”(Operation AI Comply)針對演算法侵權行為展開調查。[26]
在我國的監管體系中,針對演算法服務提供者的規定主要集中在《網際網路資訊服務演算法推薦管理規定》中。[27]隨著人工智慧技術的不斷進步,後續出臺的《網際網路資訊服務深度合成管理規定》[28]和《生成式人工智慧服務管理暫行辦法》[29]則進一步對特定應用場景中的演算法服務作出了更為細化的規定——特別是在倫理道德、虛假資訊治理、備案與安全評估、以及內控管理等方面。然而,儘管上述法規對演算法服務提供者設定了廣泛的合規義務,但在具體的責任歸屬問題上仍然存在較大模糊性與不確定性,導致在損害發生後侵權責任的認定與歸責機制難以明確適用。此外,現行監管框架的重點落腳於對非國家主體的資料使用管理,以及國家安全、社會制度與核心價值觀的維護,這些較為概要性、原則性的規定體例,也在一定程度上限制了其在侵權責任認定方面的可適用性。
因此,有必要在堅持創新和保護兩大原則的基礎上,重新釐清人工智慧演算法“過錯責任”的認定路徑:一方面,應避免對起步階段的創新企業施加過重責任負擔;另一方面,透過適當的責任認定和懲罰措施,促使從業者增強對技術風險的管理與防控,推動行業朝著更安全的方向發展——如何在兩者之間實現平衡,將成為推動我國人工智慧責任體系完善的關鍵。

(圖片源於網路)
參考文獻
[1]中華人民共和國國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要(2021), CLI.1.353607 (Lawinfochina), https://www.gov.cn/xinwen/2021-03/13/content_5592681.htm.
[2]對於過錯責任和無過錯責任之辯,可見:
徐偉,《生成式人工智慧服務提供者侵權歸責原則之辨》,載《法制與社會發展》,2024年第3期;
沈森宏:《論生成式人工智慧服務提供者過錯的認定》,載《現代法學》,2024年第6期;
鄭志峰,《人工智慧應用責任的主體識別與歸責設計》,載《法學評論》,2024年第4期;
戴昕,《無過錯責任與人工智慧發展——基於法律經濟分析的一個觀點》,《華東政法大學學報》2024年第5期。
[3]需要指出的是,現有的網際網路服務監管體系並不能完全適應當前人工智慧技術的發展需求。事實上,隨著演算法技術的不斷演進及其潛在風險的日益複雜化,傳統的監管框架在應對人工智慧帶來的新型挑戰方面力有不逮。
[4] 《最高人民法院關於審理侵害資訊網路傳播權民事糾紛案件適用法律若干問題的規定》,法釋〔2012〕20號。
[5]《最高人民法院關於審理利用資訊網路侵害人身權益民事糾紛案件適用法律若干問題的規定》,法釋〔2014〕11號。
[6]胡巧莉,《人工智慧服務提供者侵權責任要件的型別構造——以風險區分為視角》,載《比較法研究》,2024年第6期。
[7]徐偉,《生成式人工智慧侵權中因果關係認定的迷思與出路》,載《數字法治》,2023年第3期。
[8]《網際網路資訊服務演算法推薦管理規定》要求特定型別的演算法推薦服務提供者透過網際網路資訊服務演算法備案系統填報資訊並履行備案手續;演算法服務提供者應當填報內容包括名稱、服務形式、應用領域、演算法型別、演算法自評估報告、擬公示內容等資訊。《網際網路資訊服務深度合成管理規定》要求深度合成服務提供者也應當按照前述《演算法推薦管理規定》履行備案和變更、登出備案手續。
[9]European Commission, Proposal for a Regulation of the European Parliament and of the Council on Artificial Intelligence, COM (2021) 206 final (Apr. 21, 2021).
[10]Kenneth S. Abraham, Custom, Noncustomary Practice, and Negligence,109 Colum. L. Rev. 1784, 1815 (2009)
[11] Marchand v. Barnhill, 212 A.3d 805 (Del. 2019).
[12]In re Caremark International Inc. Derivative Litigation, 698 A.2d 959 (Del. Ch. 1996).
[13] Harvard Law School Forum on Corporate Governance. (2022, January 5). Board responsibility for artificial intelligence oversight. https://corpgov.law.harvard.edu/2022/01/05/board-responsibility-for-artificial-intelligence-oversight/.
[14]在雅虎資料洩露案件中,雅虎公司董事和高管未能履行對於公司網路安全予以監督的信義義務,最終雙方達成1.175億美元和解協議。見:Lexology. (n.d.). Yahoo data breach derivative lawsuit settlement: Directors’ oversight responsibilities in cybersecurity. https://www.lexology.com/library/detail.aspx?g=7dcd2295-64c5-439d-b617-76392347b9b3.
[15]Aguilar, L. A. (2014, June 10). Boards of directors, corporate governanceand cyber-risk. U.S. Securities and Exchange Commission. https://www.sec.gov/newsroom/speeches-statements/2014-spch061014laa.
[16]IEEE. 2008. IEEE Standard for Software Reviews and Audits. IEEE Std 1028-2008 (Aug 2008), 1–53. https://doi.org/10.1109/IEEESTD.2008.4601584.
[17] Meta, Oversight Board, Meta, https://oversightboard.com/.
[18]Microsoft, AETHER Committee, Microsoft, https://www.microsoft.com/ai/ethics.
[19]DeepMind, Institutional Review Committee, DeepMind, https://deepmind.com/about/ethics.
[20]Jenna Burrell. How the machine “thinks”: Understanding opacity in machine learning algorithms. Big Data & Society 3, 1 (2016).
[21]Christian Sandvig, Kevin Hamilton, Karrie Karahalios, and Cedric Langbort. Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical concerns into productive inquiry 22 (2014).
[22]Office of Mgmt. & Budget, Exec. Office of the President, Memorandum M-21-06, Guidance for Regulation of Artificial Intelligence Applications (Nov. 17, 2020).
[23]The White House, Fact Sheet: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI (July 21, 2023).
[24]SEC Charges Two Investment Advisers with Making False and Misleading Statements About Their Use of Artificial Intelligence, U.S. Sec. & Exch. Comm’n, https://www.sec.gov/newsroom/press-releases/2024-36.
[25]Bd. of Governors of the Fed. Reserve Sys., Federal Trade Commission Act, https://www.federalreserve.gov/boarddocs/supmanual/cch/200806/ftca.pdf.
[26]FTC Announces Crackdown on Deceptive AI Claims and Schemes, Federal Trade Commission (2024), https://www.ftc.gov/news-events/news/press-releases/2024/09/ftc-announces-crackdown-deceptive-ai-claims-schemes.
[27]網際網路資訊服務演算法推薦管理規定 (2021), CLI.4.5113084 (Lawinfochina), https://www.pkulaw.com/chl/faf51f90a44d31adbdfb.html.
[28]網際網路資訊服務深度合成管理規定 (2022), CLI.4.5145526 (Lawinfochina), https://www.gov.cn/zhengce/zhengceku/2022-12/12/content_5731431.htm
[29]生成式人工智慧服務管理暫行辦法 (2023), CLI.4.5171165 (Lawinfochina), CLI.4.5171165.https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.
