日報
專欄
熱點
國際
活動

現在談《人工智慧法》為時尚早,隱私權保護和智慧財產權歸屬仍是熱點。(首圖來自圖蟲創意)
國務院辦公廳在2023年、2024年的年度立法工作計劃中,均明確提出“預備提請全國人大常委會審議人工智慧法草案”,使得AI監管立法的話題近兩年一直處於風口浪尖,各界人士的熱烈討論、響應,更使得《人工智慧法》似乎是有箭在弦上、不得不發的態勢了。
而就在本週一,人民日報的學術版以深化人工智慧安全監管為話題,邀請了三位知名學者對此進行探討,並使用了一整個版面刊登了三位學者的意見。今天颯姐團隊就此事與大家聊一聊。
目前我國AI監管立法情況一覽
1.《生成式人工智慧服務管理暫行辦法》
在人工智慧法草案提出後不久,2023年7月14日國家網際網路資訊辦公室聯合國家發展和改革委員會等部門共同釋出了《生成式人工智慧服務管理暫行辦法》(以下簡稱“《辦法》”),在生成式人工智慧的發展與監管方面進行了原則性的規定,並提出了多項監管制度。
例如按照風險高低和不同行業領域進行有效監管,並特別強調了在演算法設計、訓練資料選擇、模型生成和最佳化、提供服務的過程中需採取有效措施防止產生歧視,以及保護肖像權、名譽權、榮譽權、隱私權和個人資訊權益,明確了訓練資料處理活動、資料標註、內容表示等要求,同時還規定了安全評估、演算法備案、投訴舉報等制度。
2.《辦法》的細化操作指南
針對《辦法》中明確規定的AI內容標識要求,全國資訊安全標準化技術委員會於2023年8月25日釋出《網路安全標準實踐指南——生成式人工智慧服務內容標識方法》作為實現這一要求的具體操作規範。
同時我們也注意到,全國資訊安全標準化技術委員會又於今年釋出了《網路安全技術——生成式人工智慧服務安全基本要求》《資訊安全技術——生成式人工智慧資料標註安全規範》《資訊安全技術——生成式人工智慧預訓練和最佳化訓練資料安全規範》的徵求意見稿。顯而易見,目前關於AI監管具體措施的立法趨勢是根據《辦法》規定採用國家標準的方式在操作層面上予以一一細化落實。
3.《人工智慧法》尚未成形
在國務院提出預備提請全國人大常委會審議人工智慧法草案後,備受期待的《人工智慧法》在全國人大常委會2023年9月所釋出的今後五年立法規劃中卻完全缺席。而隨著今年兩會期間,多名人大代表的不斷呼籲、提案和各界人士的熱烈討論,《人工智慧法》再一次成為關注的焦點。
今年5月9日,國務院辦公廳印發《國務院2024年度立法工作計劃》中 “人工智慧法草案”再次列入預備提請全國人大常委會審議專案。而隨後5月11日公佈的全國人大常委會2024年度立法計劃中,將網路治理和人工智慧健康發展方面的立法列入預備審議專案,但仍然沒有明確提出《人工智慧法》。
學者觀點和意見
1.三個階段,三大風險
劉豔紅教授表示,生成式人工智慧在技術執行上可分為三個階段,而三個階段又有三大不同的風險需要重點採取相應的監管手段予以規避:
準備階段:這一階段主要進行的是資料的收集與利用,如若缺乏監管一旦過度便會引發危害資訊安全、侵犯公民隱私權等風險。對此劉教授認為應透過將分類分級的資料安全監管要求嵌入這一階段的方式,避免資料安全風險演化為具體的法益損害後果。
運算階段:這一階段的運作主要依靠人工設定演算法模型,然而一旦該模型被注入了較多個人的主觀偏好和想法,勢必會影響演算法的客觀性,產生演算法偏見。對此劉教授認為要透過法律規範設定一定的標準,並將其深度嵌入演算法模型之中,確保合理利用生成式人工智慧演算法並分配算力資源。
生成階段:此時演算法運作已經完成,目前最大風險就在於伴隨生成物而來的智慧財產權糾紛。對此劉教授認為應以具有獨創性和創新性作為智慧財產權的確權標準,同時要合理確定對生成物智慧財產權保護的範圍,避免保護範圍無限擴張和生成物的濫用。
2.隱私安全面臨挑戰
顧裡平教授表示,人工智慧時代下,去私密化技術特徵加劇了個人資訊安全風險,給隱私權的保護帶來嚴峻挑戰。對此在收集個人資訊資料前應當以尊重使用者的個人意願為原則,以使用者全面知情且同意為前提,而在處理、利用資訊資料的過程中中透過完善資料庫安全、核心資料加密、個人資料脫敏等技術手段,儘可能地保護隱私權,建立資訊安全的防火牆。
3.立足互動性,構建模組化、多層次的治理生態
張欣教授表示,人機之間的深度互動、高度互聯使得人工智慧有別於傳統的以個體為中心的治理方式,對此應當從資料模組、演算法模組、模型架構等關鍵節點出發,設計相應的治理模組,推動形成廣泛互聯、多方參與、多層次協作的治理生態。
AI監管立法風向
1.現在談《人工智慧法》為時尚早
根據全國人大常委會在立法計劃中所展現的態度,《人工智慧法》目前可以說是八字還沒有一撇。
颯姐團隊認為,《人工智慧法》需要實現的是濃縮提煉目前AI領域所包含的各種實質性法律關係和法律問題,並設定相應的規範進行有效的指引,同時還要兼顧與目前我國立法體系相協調。雖然近兩年,AI自上而下對我國各方面產生了巨大影響,但考慮到目前AI行業發展迅速,更新換代頻率極高,尚未呈現出穩定、有序的發展態勢,同時AI行業所包含的各類法律關係以及伴隨的各類風險多種多樣,涉及不同的部門法,而《人工智慧法》如何與其他部門法有效配合、銜接也是一大立法難題。
那麼在全世界範圍內人工智慧領域立法都還沒有發展成熟的情況下,面對我國的這些立法困難,立法機關對於《人工智慧法》抱有謹慎、保守的態度倒也不足為奇了,所以颯姐團隊提示各位朋友們不必對此過分擔憂,真正的《人工智慧法》還需要各位拭目以待。
2.《辦法》進一步細化,“階段化”治理或將成為立法趨勢
目前生成式人工智慧系統性、流程化的突出特點,註定其監管模式應當有別於傳統方式,立足於生成式人工智慧運作的基本邏輯,才能有效覆蓋其運作的全過程,且以更有針對性的方式進行監管。而學者所提出的分階段風險監管和模組化、多層次的治理生態顯然為此提供了新的思路,而這也恰巧符合《辦法》所提出的各項規定。
颯姐團隊認為,未來基於《辦法》規定而進一步細化的部門規章、地方性檔案和推薦性標準等檔案將層出不窮,而針對生成式人工智慧運作各個階段的突出風險進行規避,實現精準化監管和治理會成為重點。對此,颯姐團隊提示各位朋友接下來要對《辦法》中明確提到的預訓練、最佳化訓練、資料標註、防沉迷機制、投訴舉報機制等進一步加強,同時重點關注相關部門規章、檔案、標準的即時更新,以便針對突出問題及時完善、整改。
3.隱私權保護和智慧財產權歸屬仍是熱點
颯姐團隊認為,演算法準備階段資訊和資料收集和利用所引發的保護公民隱私權問題以及AI生成物的智慧財產權歸屬問題,仍然是日後對於AI監管的重中之重。未來或許會出臺相應的規範措施,就不同行業的AI產品對使用者資訊進行收集前如何直觀的使使用者全面知情、如何準確獲取使用者同意予以更進一步的細化規定。
而且,此類問題通常會演變為相關的民事訴訟案件,而日前北京網際網路法院即釋出了八起典型案例,其中便涉及個人資訊處理的知情同意規則、個人資訊處理者安全保障義務、去標識化處理後的個人資訊利用等問題,那麼也有可能在積累大量的具備參考性的判例後,司法機關透過對《民法典》《著作權法》釋出司法解釋或者典型案例的方式對此作出回應。
因此,颯姐團隊提醒朋友們對這兩塊的自我合規監管仍然不要放鬆警惕,相應的資料使用和隱私保護應當即時監督、完善相應措施,而對AI生成物的智慧財產權歸屬和權益分配的問題上,相應格式條款的擬定仍是有效、直接的解決辦法。
REVIEW




