![]()
從AI盜播仿冒名人帶貨,再到頻繁出現的AI版權糾紛,伴隨AI技術的應用,生成式人工智能問題日益凸顯,也給執法司法帶來挑戰。12月18日,南方都市報社、南都數字經濟治理研究中心主辦的“第九屆啄木鳥數據治理論壇”在京舉辦,中國法學會副會長,中國人民大學一級教授王利明以《生成式人工智能的侵權及應對》為題作主旨發言。
王利明表示,當前對人工智能侵權,專門立法為時尚早,應秉持“在發展中規范”的思路,以《民法典》《個人信息保護法》為基礎,充分解釋、用好現有規則,再通過案例積累、司法解釋制定,有效應對人工智能引發的侵權問題。
談及深度偽造技術的規范,王利明建議,依據《民法典》第1019條,禁止利用深度偽造技術侵害他人權益,關鍵在于充分解釋該條款,應對人工智能領域的深度偽造侵權問題。
![]()
針對人工智能侵權專門立法為時尚早,建議用好現有規則
當前,人工智能時代已然來臨,人工智能將深刻改變我們的生產方式、生活方式和社會治理模式,“人工智能+”也成為當前乃至今后經濟增長的重要增長點。王利明表示,與此同時,生成式人工智能也可能引發侵權問題。因此,應對好生成式人工智能的侵權,是“時代之問”,必須給出回應。
王利明介紹,針對人工智能侵權問題,比較法上有兩種核心模式:一是以歐盟為代表的“強監管模式”,該模式注重對個人信息、隱私的保護,設置了多項合規義務,違反義務易引發侵權責任;二是以美國為代表的“輕監管重利用”模式,模型開發者、服務提供者的合規義務相對較輕,個人信息、隱私侵害主要通過侵權法處理。
此前,不少學者建議我國盡快針對人工智能侵權進行專門立法。王利明對此表示,當前專門立法為時尚早,核心原因有兩點:其一,人工智能侵權的潛在風險總體可控,主要損害隱私、個人信息、知識產權等權利,未直接對個人生命財產安全造成現實重大侵害;其二,人工智能技術發展日新月異,其帶來的新情況、新問題、新挑戰仍需時間觀察、認識與總結,過早立法可能因滯后性妨礙技術發展。
王利明主張“在發展中規范”的思路,他認為,當前《民法典》《個人信息保護法》已對相關權利保護有明確規定,可以這些現有法律為基礎,充分解釋、用好現有規則,再通過案例積累、司法解釋制定,有效應對人工智能引發的侵權問題。
人工智能侵權過錯判斷應以“違反注意義務”為核心
人工智能侵權的核心法律問題,首先是歸責原則的選擇,應適用“無過錯責任”還是“過錯責任”?
王利明認為,人工智能侵權應適用“過錯責任”。無過錯責任可能嚴重阻礙人工智能發展,若一旦發生侵權,模型開發者、設計方、服務提供者就需承擔責任,會使其承受過大風險。此外,無過錯責任主要適用于產品責任等領域,而人工智能提供的是服務而非產品,服務瑕疵不會像產品瑕疵那樣對受害人人身、財產造成現實重大損害,無需將嚴苛的產品責任歸責原則適用于人工智能侵權領域。適用過錯責任既能為人工智能的開發、設計、制造、服務提供創新空間,鼓勵技術發展,也能兼顧受害人權益保護,是較為妥當的選擇。
王利明還提出,人工智能侵權的過錯判斷標準,應以“違反注意義務”為核心,同時遵循場景化原則,結合具體場景權衡風險防控成本與合理義務,避免“一刀切”。比如,利用人工智能收集他人碎片化信息,若為用戶提供個性化推薦且無不當用途,未必構成侵權;但針對特定個人收集碎片化信息并打包出售,則可能構成侵權。此外,過錯認定還需考慮現有技術水平,人工智能存在技術無法克服的困境,如生成信息出現“幻覺”,可借鑒民法典侵權責任編中的發展風險抗辯、醫療侵權中的現有技術無法診治的抗辯,綜合考量風險程度與防范風險的成本。例如,要求模型服務提供者刪除每條虛假生成信息,可能帶來巨大成本,該方式的適用性值得研究,相較之下,針對相關關鍵詞進行合理過濾,更具實操性。
同時,王利明還表示,需明確區分人工智能服務提供者與用戶的過錯。生成式人工智能運行具有交互性,生成結果既依賴語料來源,也依賴用戶輸入指令,若用戶通過輸入虛假信息誘導大模型做出錯誤判斷并造成損害,主要過錯在用戶,不能直接認定服務提供者存在過錯。
“為促進人工智能發展,建議類推適用《民法典》第1195條的避風港規則,即服務提供者收到用戶關于侵權內容的整改通知后,未在合理期間采取過濾、優化模型等合理措施的,再承擔相應侵權責任,而非一旦發生侵權就直接追責。”王利明稱。
禁止利用深度偽造技術侵害他人權益
人工智能常以海量已公開個人信息作為語料,對已公開個人信息的利用是否要取得信息主體同意亦引發爭議。
對此,王利明建議,適用《民法典》第1036條,區分已公開與未公開個人信息,僅當已公開個人信息的利用造成信息主體重大利益侵害時,信息主體有權拒絕。例如,收集已公開信息用于模型訓練且進行匿名化處理,無需逐一取得同意;但將已公開個人信息打包出售,可能構成重大利益侵害,需承擔責任。
王利明還提到,對于已公開數據作品的處理,應區分輸入與輸出兩個階段:輸入階段,對大模型開發者獲取已公開作品數據用于訓練,應秉持開放態度,可考慮納入著作權法合理使用范疇,無需要求每篇作品都取得作者同意,避免影響語料來源;輸出階段,需嚴格把關生成結果,模型處理者應采取技術措施,確保輸出結果多樣化、模糊化,避免與他人享有著作權的作品內容雷同,否則可能構成侵權。
此外,深度偽造技術的規范也尤為重要。王利明認為,深度偽造本身是中性概念,但易被用于以假亂真、栽贓陷害、無中生有,均會嚴重侵害他人權益。建議依據《民法典》第1019條,禁止利用深度偽造技術侵害他人權益,關鍵在于充分解釋該條款,應對人工智能領域的深度偽造侵權問題。
“生成式人工智能發展伴隨著風險與挑戰,我們需秉持‘在發展中規范,在規范中發展’的監管理念,面對新領域、新技術、新挑戰,堅持審慎、包容、開放的態度,保障人工智能在安全、可靠、可控的前提下有序發展,營造鼓勵創新的良好營商環境。”王利明稱。
采寫:南都N視頻記者劉嫚 發自北京





京公網安備 11011402013531號