生成式人工智能著作權爭議的法治回應

2026年04月28日
摘要

生成式人工智能帶來了三大著作權爭議,亟須法治回應。其壹,就人工智能生成內容可版權性爭議而言,應堅持“以人為本”理念,將“創作”理解為基於自由意誌直接決定表達性要素的行為,據此人工智能生成內容不宜作為作品保護。其二,就人工智能生成侵權爭議而言,應以權責統壹視域明確各方主體責任,並可將“假定自然人測試法”作為確認權責的標準。其三,就人工智能訓練爭議而言,著作權法的基本理論難以為未經許可建立容納海量作品的訓練語料庫提供正當性依據。應當立足中國現實,推進法治保障創新。

關鍵詞:人工智能生成內容 可版權性 人工智能生成侵權 人工智能訓練




王遷 | 華東政法大學教授

壹、引言
隨著生成式人工智能快速發展,相關的著作權法律議題日益凸顯。當前最為突出的爭議至少包括三個方面:其壹,根據提示詞生成的人工智能生成內容能否構成著作權法意義上的作品;其二,人工智能生成內容與在先作品相同或者實質性相似時,如何認定侵權及分配責任;其三,以海量作品訓練人工智能,特別是通過爬蟲抓取、匯集作品並建立可反復調用的語料庫,是否落入復制權等專有權利控制,以及現行合理使用規則能否容納此類行為。

近期公布的《中華人民共和國國民經濟和社會發展第十五個五年規劃綱要》已明確提出“探索建立人工智能生成物權利歸屬和開發者經營者使用者權責認定規則”“建立人工智能訓練數據合理使用制度”。當前最需要的不是在概念上回避沖突,而是在法治保障框架內正視沖突,以法治化解決生成式人工智能著作權問題。著作權法既要保護作者權益、鼓勵創作與傳播,又必須預留公共領域與合理利用空間,避免權利擴張對社會知識流通造成過度抑制。正因如此,需要探索符合利益平衡理念的生成式人工智能著作權法治保障方案。解決人工智能生成內容是否屬於作品的爭議,需要澄清“創作行為”的內涵;解決人工智能生成侵權內容的爭議,需要明確侵權認定與責任承擔的規則;人工智能訓練問題則要求在創新激勵與權利保護之間重建可預期的制度平衡。



二、以人為本理念下的人工智能生成內容定性爭議檢視
《全球人工智能治理倡議》提出,人工智能的發展應堅持“以人為本”的理念。這壹觀點既契合馬克思主義倡導人的解放、反對人的異化的觀點,也與中華傳統文化中人本主義觀念相貼合。應當始終以“人”為中心構建人工智能時代著作權的理論體系和具體制度。本文認為,“創作”是基於自由意誌直接決定表達性要素的行為,這體現了“以人為本”的理念。

《中華人民共和國著作權法實施條例》(以下簡稱《著作權法實施條例》)第三條第壹款規定:“著作權法所稱創作,是指直接產生文學、藝術和科學作品的智力活動。”《著作權法實施條例》第三條第二款規定:“為他人創作進行組織工作,提供咨詢意見、物質條件,或者進行其他輔助工作,均不視為創作。”其中,“直接產生……作品”強調的是民事主體決定構成作品所需表達性要素的自由意誌。其與作品之間的聯系如此緊密,以至於只能用“直接”而非“間接”予以描述。與之相對應的是“間接產生……作品”,包括對作品的創作理念、風格、目標和方法等下達指令、進行指導、提出意見或建議,其並不能直接決定構成作品的表達,而需要作者自行選擇和判斷,以個性化的方式予以實現。壹個最為典型的例子,為學生作畫寫出幾百字文字要求的老師本身無法成為學生畫作的作者。

要認定人工智能的開發者或使用者是否以人工智能為工具“創作”了相關內容,就必須判斷該開發者或使用者是否基於其自由意誌直接決定了構成相關內容的表達性要素。這壹標準最直接的外在表現,就是“直接決定”意味著許多同類的不同創作工具,處理同壹要求所得到的表達性要素是相同的,只可能產生技術意義上的差異。例如,用各種計算機文字處理程序,如美國微軟公司的Wor誒和我國金山公司的WPS,分別在配置差異較大的數臺計算機上進行相同的文字輸入,結果必然是生成相同的文字組合、遣詞造句。對於人工智能生成內容而言,人工智能開發者當然需要設計算法和模型,並使用大量的數據“訓練”人工智能,且反復糾錯,使人工智能面對不同的需求能自主生成內容。然而人工智能開發者不可能僅通過上述操作,就能憑借其自由意誌直接決定人工智能生成的內容。同樣道理,向人工智能發出指令,要求人工智能完成特定任務的使用者也不能憑借其自由意誌,決定人工智能生成的內容,因此不能認為該使用者從事了作品的“創作”。雖然用戶的指令劃定了人工智能生成內容的方向和領域,也可以從人工智能生成的眾多內容中挑選出滿意的部分,但不能直接決定這部分內容的表達性要素。

對此存在的質疑觀點是,如果提示詞具體到函數層面,比如向人工智能輸入用戶自己創作的壹幅畫的坐標,則可以認可用戶的獨創性貢獻。然而這種情況意味著人工智能成了復制用戶畫作的技術工具,而不是在自主“生成”內容,與“生成式人工智能”的名稱和討論生成內容是否屬於作品的當然邏輯起點相悖。當然,如果科技真的發展到了這麽壹天,人工智能可以達到科幻電影《盜夢空間》所描述的技術階段(所謂腦機接口技術大概正向此方向發展),當畫家已經在腦海中構思了作品的所有表達性要素,即所謂“胸有成竹”時,人工智能潛入人的意識中,將“胸中之竹”變成了計算機屏幕上竹子圖,則的確“(畫家)對於最終畫面的獨創性表達的預見度可能接近100%”。然而這種假設下的人工智能還是我們現在討論的生成式人工智能(Generative Artificial Intelligence)嗎?恐怕改為“復制式人工智能”(Reprographic Artificial Intelligence)更為合適!

本文認為人工智能生成內容應當被排除出作品範圍。至於在人工智能生成內容的過程中用戶可能做出的智力貢獻(如對人工智能生成的內容進行具有獨創性的修改、匯編等“演繹”,或者設計可以構成文字作品的提示詞),將其與其他作品壹樣納入著作權保護範圍,從來不存在爭議。對於是否應當設置人工智能生成內容的鄰接權,也就是提供特別保護,當然是值得認真對待的問題。鄰接權並不以“創作”出具有獨創性的內容為前提,但鄰接權與作者權壹樣同屬民法上的絕對權、對世權,是否創設此種鄰接權涉及復雜的利益關系和利益平衡,國際上沒有對人工智能生成內容設置鄰接權(作品之外其他文化成果權)的先例。本文並不預設觀點,但認為至少應當廣泛調研,積極跟蹤人工智能生成內容的應用實踐,審視人工智能技術的發展態勢和業界的需求與期待。這樣才能紮根中國實際、做出符合國情的制度創新。



三、權責統壹視域下的人工智能生成侵權爭議檢視
習近平總書記2025年4月25日在中共中央政治局第二十次集體學習時指出,完善人工智能監管體制機制,牢牢掌握人工智能發展和治理主動權。人工智能帶來的著作權侵權風險需要得到有效監管和治理。當人工智能“抄襲”在先作品,生成了與在先作品基本相同或實質性相似的內容,就會引發復雜的侵權認定和責任承擔問題。

著作權法容忍巧合,即雙方基於巧合各自對獨立完成的高度近似乃至極端情況下相同的內容享有著作權,且互不侵犯對方的著作權。然而無論中外,在著作權侵權訴訟中,被訴侵權方能夠舉證自己的在後內容是純粹基於巧合與原告的在先作品實質性相似的案例屈指可數。同樣道理,巧合抗辯難以適用於人工智能生成侵權場景。所謂“巧婦難為無米之炊”,當人工智能生成的內容與復雜到壹定程度的在先作品實質性相似時,更合理的解釋是人工智能以某種技術手段實質性地再現了用以作為素材訓練的在先作品,而不是純粹無中生有地自行“創造”出了與他人作品實質性相似的內容。若諸多用戶要求生成式人工智能向其提供某件在著作權保護期內的他人畫作,生成式人工智能便徑直且穩定地生成相同或實質性相似的內容,那麽將這種訓練模型生成相似結果的情況評價為技術巧合就有失偏頗。

權責統壹視域有助於評判人工智能生成侵權爭議下的各方責任。權責統壹寓意著“權利與義務相統壹”,其中的“權利”並不局限於著作權或其他法定權利,而是泛指利益。在獲取相應利益的同時,通常需承擔相應的義務。人工智能開發者投入巨量資金開發生成式人工智能,是為了形成相應的商業模式,直接提供人工智能生成服務或嵌入相應產品提供人工智能生成服務以換取經濟利益。這種商業利益正是開發人工智能的動力,亦是“權利與義務相統壹”中的“權利”(利益)。與之相適應,當人工智能開發者從中獲取權利,也需要承擔相應義務。若開發者所提供的人工智能存在嚴重缺陷,會輕易且穩定地生成侵權結果,則開發者難辭其咎,需要采取停止侵權措施並視過錯程度承擔賠償責任。

“假定自然人測試法”為如何確定權利與義務提供了可行的解決方案。這壹方法是指先將人工智能假定為自然人,將實際通過人工智能實施的技術過程假定為自然人實施的具有相同效果的行為,以此對表面上的疑難爭議問題進行類推比較,再在結論中用人工智能替換假定的自然人(存在人工智能無民事主體資格這壹核心區別),從而觀察結論的合理性。壹直以來,對於人工智能“抄襲”在先作品時,究竟應當追究用戶、人工智能服務提供者還是人工智能開發者的責任,存在不少的爭議。但如果將生成式人工智能類比為網絡自動點唱機,則可以發現傳統著作權法已經為定分止爭確定了規則。此時,用戶就是向網絡自動點唱機要求提供音樂的自然人,人工智能開發者可類比為網絡自動點唱機的制造者和銷售者。在網絡自動點唱機提供他人在先音樂作品的情況下,用戶僅提供指令並在私人空間欣賞,並沒有實施復制作品等受專有權利規制的行為,其將音樂作品存儲於電腦供自己日後欣賞,則屬於合理使用。至於用戶隨後傳播該作品是否構成侵權,自當另行判斷。同時,雖然人工智能開發者沒有直接實施“抄襲”行為,但就像網絡自動點唱機的制造者和銷售者要承擔侵權責任壹樣,可能需要為人工智能“抄襲”在先作品造成的損害後果負責。此外,以上方法同樣可應用於初步考察人工智能接入、聚合服務提供者的責任,以明確其是否適用“通知與必要措施”規則以及是否履行了合理註意義務,采取了制止侵權的“必要措施”。

總之,要解決人工智能生成侵權內容的問題,仍遵循著作權法和民法典侵權責任編的壹般原則。以權責統壹促使人工智能開發者加大投資和技術研發,防止人工智能生成侵權內容,這對於人工智能的健康發展大有脾益。技術發展也許突飛猛進,但法律的基本原理和運行邏輯卻能夠在相當長時期內保持相對穩定,因為新技術現象並不必然帶來足以推倒現有規則的新問題。



四、政策導向下的人工智能訓練爭議檢視
習近平總書記2025年4月25日在中共中央政治局第二十次集體學習時指出,要正視差距、加倍努力,全面推進人工智能科技創新、產業發展和賦能應用。《全球人工智能治理倡議》指出,發展人工智能應“以增進人類共同福祉為目標,以保障社會安全、尊重人類權益為前提”。人工智能相關著作權問題的妥善解決,不僅關涉立法與司法,更與人工智能產業息息相關。

人工智能開發者大多需要建立起包含海量作品的內部知識數據庫(訓練語料庫)對人工智能進行訓練,但這種基於商業目的的海量、系統和大規模的利用行為,尚未被納入任何壹個國際條約或國家著作權法所規定的權利限制範圍。國家網信辦等七部門聯合發布的《生成式人工智能服務管理暫行辦法》第七條規定生成式人工智能服務提供者在開展訓練時,“涉及知識產權的,不得侵害他人依法享有的知識產權”。但是,該規定並未明確何種情況才能認定侵權。使用作品訓練人工智能應如何定性和規範,在全世界範圍內引起了最為激烈的爭論。其中的主要原因,是人工智能技術的發展過於迅猛,而現有的著作權法和制度設計理論都尚未做好準備。

現有觀點往往援引源自西方的非表達性使用或轉換性使用理論為人工智能訓練的合法性提供依據。然而,哪怕是西方的案例也表明,大規模內部復制行為對訂閱市場造成實質性影響的,不屬於合理使用。轉換性使用概念的提出者Leval法官認為,被告公司的圖書館對期刊文章的復制既不具有轉換性,也不具有非商業性,而是具有替代性。被告公司只是對相關文章進行了機械復印。原件的副本也並非作為更大整體的壹部分用於某些新用途。被告公司復制的主要目的是取代原件並允許復制,甚至批量復制。研究人員可將某篇文章復印留存,以備日後閱讀或查閱,從而不必與他人共享原始期刊。這類復制行為並未對原作品作出任何實質性新增或改造,其僅實現了副本數量的增加。所謂的“轉換性使用”,需要產生新的、不同於原作的內容,而不是說只要是為了有益的目的而制作復制件就符合條件。二審同樣支持了這壹思路,法院認定被告公司不能僅僅因為對文章(或書籍)進行檔案復印,就獲得合理使用豁免。同樣,壹家報紙不能聲稱,由於其業務是“新聞報道”,它就可以自行復印新聞書籍並把它們放在記者的書架上讓其學習,壹家學校也不能主張,為了幫助教師提高教學能力,就可以大量復印教育學的書籍並讓教師閱讀復印件。無論復制和閱讀此類書籍可能對提高教學能力帶來多大的益處,都不可能構成教學性合理使用。

本文認為,人工智能訓練深刻嵌入中國產業升級、技術競爭與制度調整的現實脈絡,因而具有強烈的政策導向。正如《知識產權強國建設綱要(2021—2035年)》所指出的,知識產權保護應“突出重點領域和重大需求,推動知識產權與經濟、科技、文化、社會等各方面深度融合發展”。結合這壹背景,西方正在討論的“非表達性使用”“轉換性使用”和“選擇退出”都難以對使用作品訓練人工智能產生的著作權問題提供壹勞永逸的解決方案。在人工智能技術應用的不同階段、不同時期,應該有與當時的社會經濟條件和國情相適應的政策與制度設計。下壹步更可行的方向,不是勉強將人工智能訓練問題套入這些此前出現的概念和機制,從而壹刀切地認定使用作品訓練人工智能就是合理使用。而是在充分把握中國實際國情的基礎上,厘清人工智能訓練問題的癥結所在,推進相關機制的改進以及權利人權益的維護,在此過程中可能需要進行某些具有過渡性質的臨時性制度設計,並從中提煉出更具有解釋力的中國論述,實現人工智能訓練法治保障的螺旋式上升。



五、結語
在維護著作權人權利邊界的同時,也應為新技術發展提供必要而明確的法治保障。生成式人工智能時代真正需要的是,通過更清晰且更具有前瞻性的規則供給為各方主體劃定可以預期的行動邊界。唯有如此,技術發展才不至於以過度侵蝕權利為代價,權利保護也才能在回應現實變遷中獲得持續的制度基礎。

*以上文章來源於《中國法治》2026年第4期



來源:中國法治在線
返回
上一篇:工信部等十部門聯合印發《人工智能科技倫理審查與服務辦法(試行)》 下一篇:没有了