李陶:歐盟《人工智能法》及其對我國著作權制度創新的啟示

2024年08月19日
作者:   李陶  中央財經大學法學院副教授


“隨著生成式人工智能等顛覆性 AI 技術的突飛猛進,人類社會的生產、生活方式乃至社會治理模式都將隨之迎來新的變革。在這壹時代背景下,如何認識人工智能產業發展帶來的各種法律問題,也越來越具有現實意義。基於此,7月13日,由中國人民大學知識產權學院主辦、知產財經協辦的“人工智能相關法律適用問題”研討會在北京舉辦,會議邀請了行業多領域代表,共同探討和研究實務中遇到的涉人工智能法律問題及解決之道,以期為人工智能相關環節的法律適用問題探究答案。會上,中央財經大學法學院李陶副教授圍繞“歐盟《人工智能法案》及其對我國著作權制度創新的啟示”話題進行主題演講,知產財經對其主講內容進行了整理,以饗讀者。


大家好,感謝主辦方的邀請,讓我來分享有關歐盟《人工智能法》及其對我國著作權制度創新的啟示。今天的報告主要分成三部分,壹是歐盟《人工智能法》概述,二是《人工智能法》中有關著作權的規定,三是《人工智能法》對我國著作權創新的啟示。


壹、歐盟《人工智能法》概述
歐盟《人工智能法》是歐盟基於其人權保護、倫理道德和法律價值標準之上的對於新產業的回應過程。歐盟《人工智能法》最根本的價值基礎在於《歐盟憲章》中的基本權利權利保障需求和法律價值評價標準等最基本共識上的的價值判斷。在這個價值判斷基礎之上,歐盟采用了分級分類的方式,包括風險的分級和行業的分類,並以橫縱交叉的方式,貫穿了上述基本價值,搭建了關於人工智能產業的壹張網。有人說,這張網是阻礙行業發展的網,也有人說,這張網是保障產業運行安全的網。從倫理、基本權利保障、社會運行、經濟安全等多方面博弈與平衡的角度來說,我認為這張網應該是保障人工智能作為工具在應用過程中,不會對社會總體福利和公民基本權利造成侵害的壹張安全網。中國究竟要選擇怎樣的治理模式與規制措施來規範人工智能相關產業運行,這是我們立法者、學者、行業各方面需要研究的問題。在這個過程當中,需要區分我國與歐盟對於共識性倫理和價值判斷以及差異性倫理和價值選擇分別有哪些,對於產業運行上的共同目標有哪些,以及我國當下發展和需要解決的差異性問題有哪些。在面臨共識和差異的情況下,我們“織網”的方式可能會有所不同。所以,應當允許這樣的差異性存在。但是,也不能忽視歐盟在倫理、價值選擇及產業運行保障中運用的方法論、價值平衡和取舍的過程,這無疑是歐盟能為我們提供的經驗。

就歐盟《人工智能法》總體的立法目標和調整內容而言,我們今天所討論的“生成式人工智能規範”只是歐盟《人工智能法》規範和調整的壹個很小的部門和領域。在處理具體問題的過程中,我們還需要著眼於更大的範圍,去觀察人工智能對於不同產業和部門法究竟有怎樣的影響。總的來看,人工智能應用的領域非常廣泛,在確定價值標準、選擇解決路徑、設計具體方案時,還應適當著眼於更大的範圍,去觀察生成式人工智作為子問題,如何在協調統壹的方法論指導下,做出宏觀的價值考量,並為其他子問題的解決提供借鑒。


二、歐盟《人工智能法》有關著作權的規定
通過系統地總結和分析,我將歐盟《人工智能法》有關著作權的規定總結為以下四個方面:第壹,明確了責任主體;第二,確定了限制和例外;第三,提出了域外適用;第四,規定了與信息提供和信息公開相關的證據規則。我將從以上四個方面進行簡單介紹。

(壹)責任主體

《人工智能法》明確了通用人工智能模型的提供者是著作權責任承擔的主要主體。正如張鵬老師所提及的,對人工智能應用的規制是全鏈條的,其中最重要的壹個主體是“通用人工智能模型的提供者”。原因是,歐盟立法者認為,通用人工智能模型提供者在整個產業鏈條中扮演的角色是最基礎的,所以其承擔的責任也是最重的。大型生成式人工智能模型是通用人工智能模型應用壹個典型的例子,他們能靈活地生成內容,例如文本、音頻、圖像或視頻的形式,這壹應用可以很容易地根據用戶的需要,完成各種獨特的任務。

鑒於通用人工智能模型的提供者在人工智能價值鏈中的特殊作用,歐盟《人工智能法》要求通用人工智能模型提供者必須制定相稱的透明報告,完成信息公開的義務,包括起草和更新說明文件,提供有關人工智能模型的信息(包括合規信息)供下遊提供商使用,以及向人工智能辦公室和其他主管部門提供。關於信息提供的內容,可以參考歐盟立法的幾個文件。壹是立法理由書,其中會解釋清楚立法理由,其也是歐盟法院未來解釋法律適用的依據。二是正文。三是附件,其中有很多格式性的文件,即相關主體在什麽情況下需要填寫什麽表格、提供怎樣的信息,相應模板,會在附件裏明確,這是非常明確和具有指引性的。

(二)許可與例外

原則上,在不屬於《數字單壹市場中的版權指令》規定的文本和數據挖掘例外的情況下,通用人工智能模型的提供者在開發、訓練模型的過程中,對著作權法保護客體的任何使用,都要取得著作權人的許可。

歐盟《數字單壹市場中的版權指令》(EU)2019鱷790第3條與第4條引入了有關文本和數據挖掘應用的例外與限制,允許行為人在某些條件下使用者出於文本和數據挖掘的目的復制和摘錄作品或其他客體,權利人可以選擇保留對其作品或其他客體的權利,以防止使用者進行文本和數據挖掘(《數字單壹市場版權指令》第4條),除非這是出於科學研究的目的(《數字單壹市場版權指令》第3條)。易言之,除了那些以適當方式(機器可讀)明確保留選擇退出權的情況,通用人工智能模型的提供者如果(出於非科學研究目的)想對此類作品進行文本和數據挖掘,都需要獲得權利人的單獨的授權(歐盟《人工智能法》第53條第1款c項)。

因此,歐盟境內的很多著作權集體管理組織在歐盟《人工智能法》出臺之後,都代表其管理作品的權利人集體宣布權利保留,並開啟了與大型人工智能服務商對話,進行著作權保護交易談判。目前,雖然全球範圍內還沒有壹例法院做出的生效判決,但可以觀察到,很多糾紛都通過談判和解達成了共識,即通用人工智能模型的提供者在開發、訓練模型的過程中,對著作權法保護客體的任何使用,原則上需要征得許可,例外情況下可以不征得許可。

(三)域外適用

域外適用方面,將通用人工智能模型投放到歐盟市場的提供商都應確保遵守《人工智能法》的相關著作權合規義務。對此,歐盟立法者認為,無論支持這些通用人工智能模型訓練的著作權相關行為發生在哪個司法管轄區,通用人工智能模型的提供者都必須制定明確的著作權合規審查規則,並遵守歐盟《人工智能法》中有關著作權規則的相關要求。因為相關規則的域外適用對於確保通用人工智能模型提供商之間公平的競爭環境是必要的,因為在這種競爭環境中,任何提供商都不允許通過借助低於歐盟著作權相關標準來在歐盟市場上獲得競爭優勢。

中國學者前幾年特別關註其他國家法律的域外適用問題,特別是美國對我國貿易及出口管制的問題。事實上,域外適用問題在很多部門法中都有談及,比如在與反壟斷、食品安全相關的部門法中。其實域外適用的問題是壹直存在的,比如其他國家的農產品想要進入歐盟市場,必須要符合歐盟農產品相關的安全體系,再如相關產品在滿足環保、不使用童工、不違背人權的價值共識與法律標準下,才能進入歐盟區域市場進行銷售。那麽,如果不能滿足《歐盟人工智能法》提出的諸項要求,就不能進入歐盟市場來應用人工智能模型、開展相關的服務,也是壹樣的道理。歐盟《人工智能法》就是按照屬地主義標準構建起來了價值判斷之下的產品運行基本規則。對於中國具備出海能力的企業而言,需要註意進口國標準的適用。

(四)證據規則

證據規則方面,通用人工智能模型的提供者需要起草並公開提供其用於訓練通用模型的內容的足夠詳細的摘要,摘要包括受版權法保護的文本和數據的來源。具體來說,在適當考慮保護商業秘密和機密商業信息需要的同時,摘要的範圍應總體上全面,而不是技術上的詳細,以方便具有合法利益的各方(包括著作權人)行使和執行其根據歐盟法律享有的權利。

這壹說明義務對應的是我國知識產權權利救濟中的證據規則,其實質上是舉證責任的倒置。為了應對人工智能的黑箱問題,《人工智能法》要求事先披露用了哪些數據集進行訓練,並且要求行為人承諾版權是合規的。在信息呈現的過程中,歐盟規則並不要求行為人提供的信息具體到其所使用的每壹個作品,只要能夠承諾是合規的,並且說明從哪裏合法得到這些數據即可,監督機關也不需要做實質性審查。




三、歐盟《人工智能法》對我國著作權制度創新的啟示
國際化環境下,中國企業面臨出海問題,也面臨著我國在經濟高速發展階段下的技術和人文關懷、倫理價值的綜合性評估和安排判斷問題,歐盟經驗確實值得我們分析和思考。同時,作為壹個法律工作者,壹個著作權、知識產權研究者,我個人的基本立場是要立足於法律解釋理解相關問題。法秩序整體有其存在的邏輯,法律制度有制度演進的內在價值取舍和邏輯安排,不能夠根據某些階段性的目標隨意進行添改。法律制度穩定運行的價值邏輯背後,體現的是很多國家在歷史中總結的基本共識,如果為了滿足某壹個時期的需求突破了這些共識點,也就打破了開展國際對話、進行國際交往所認同的基本價值共識,這就可能會導致壹些多沖突和誤解。。

針對我國需要面對的幾個問題,可以從著作權制度的保護規則、限制例外規則、授權與集體管理規則、權利救濟規則四個方面來談談歐盟《人工智能法》對我國的啟示。

(壹)著作權保護規則

第壹,從著作權保護規則看,我國的著作權制度有必要細化復制權的調整範圍,明確被允許使用的“臨時復制”的構成要件。全球範圍內已經出現了多個權利人依據復制權侵權維權的案件,例如,紐約時報在針對OpenAI的起訴書中認為,聊天機器人向用戶提供了《紐約時報》文章的近乎逐字摘錄,之所以OpenAI和Microsoft特別強調使用《紐約時報》新聞來訓練他們的人工智能程序,因為這些材料被認為是可靠和準確的。建議我國在《著作權實施條例》中對臨時復制行為進行必要的界定,以完成技術發展和立法目的之間的適配。具體在立法中需要嚴格界定臨時復制各個構成要件的內涵,為權利人和作為使用者的人工智能模型提供者創造可預期的法律依據。

正如很多學者所說,臨時復制不屬於復制權的調整範圍,因為臨時復制是不具有獨立的經濟價值的,壹旦具有獨立的經濟價值,就屬於復制權的調整範圍,不能享受法律的豁免,而需要征得許可、支付相應的報酬。對於臨時復制內涵的界定,版權理論界的同仁們還需要進壹步加強研究。新技術發展的情況下,如何界定臨時復制豁免的範圍,很大程度上影響到我國對於許可收費判斷的問題。同時,也需要關註國際上對於臨時復制基本共識,避免出現其他國家保護的內容在我們國家不保護的情形出現。至於《著作權法實施條例》是不是在短時間內能夠予以回應,由於時間緊迫,還需要慎重。

(二)著作權限制規則

第二,從著作權限制規則看,我國《著作權法》有必要增添有關保障通用人工智能模型提供者開展人工智能訓練的合理使用和法定許可規則。歐盟《人工智能法》明確了通用人工智能模型的提供者可以使用開源的著作權保護客體以及在歐盟文本和數據挖掘例外制度的適用下進行系統的開發和訓練。我國應當盡快通過《著作權法》修訂增添有關文本和數據挖掘的合理使用制度,以便讓相關主體(特別是以科學研究為目的的主體)能夠享受到技術帶來的開發利用著作權法保護客體的便利。但通過概念擴張完全免除以營利為目的相關主體的付費義務,會背離文本和數據挖掘原本產生的立法意圖。因此,也可以在引入有關文本和數據挖掘合理使用規則的同時,考慮引入新的法定許可機制,以求保障創作者群體能夠針對人工智能系統對其著作權法保護客體的開發與利用獲得適當合理的報酬。

通過歷史考察可以發現,在文本和數據挖掘制度產生時,其立法目標並不是為了給生成式人工智能開放合理的正當性。在文本和數據挖掘誕生時,我們無法預測到生成式人工智能會產生如此大的影響。文本和數據挖掘的目的主要是“分析、判斷和預測”,而現在的生成式人工智能已經變成了“生成、傳播和利用”,使用目的發生變化。

德國和歐盟立法者也在考慮,現有的文本和數據挖掘合理使用是否在適用過程中過度侵害著作權人的權利,打破了文本與數據挖掘立法時所希望達到的平衡。當初引入文本和數據挖掘的邏輯前提和基本判斷是這種復制行為是侵權的,因為有壹些復制產生了競爭性替代品,因而需要通過合理使用正當化。

對於我國來說,有必要創造文本和數據挖掘制度,但需要限定制度的適用範圍。在生成式人工智能使用作品的過程中,如何平衡好產業發展需求和保護創作者權益的價值要求之間的關系,需要立法者去考量。個人認為,建立法定許可為原則,壹些具體場景之下的退出機制是比較合理的。至於授權機制,個人比較期待集體管理的運用。

(三)著作權授權許可規則

第三,從著作權授權許可規則看,我國應盡快完善已有的著作權集體管理制度,特別是完善集體管理組織的內部治理、外部監管規則,確立並建立對非會員權利的集體管理制度。

為什麽說集體管理制度比較適合?高質量、可信賴的人工智能系統需要通過高質量的數據集完成訓練,這些數據集合中包含了著作權法所保護的客體。這就是為什麽國外很多大型的數據庫正在尋求高質量的數據庫、可信賴的數據庫作為素材來投餵訓練的原因。為了在合法的框架下利用高質量數據集進行訓練,OpenAI已經和包括美聯社、阿克塞爾·斯普林格在內的多家新聞出版集團達成了使用其著作權法保護客體的協議。如果人工智能模型的提供者需要承擔著作權合規的義務,必將出現從以出版商為代表的個體授權向以著作權集體管理組織為代表的集體授權機制進行過渡的現象。為了讓權利人獲得適當的報酬,瑞士和德國的著作權集體管理組織已經發表了針對人工智能模型訓練的文本和數據發掘的適用保留,並啟動了相應的授權談判。對此,高效運行的著作權集體管理機制可以實現權利人和使用者的利益平衡,在保障權利人權利的同時,促進使用者取得授權,並開展利用版權保護客體的行為。

使用者比較關心的是分配難的問題,這壹問題是可以克服的。當下遇到的很多問題,在歷史上都已經出現過,歷史上的方法其實可以用於克服當下遇到的困境。概括性收費和付費的制度在歷史上就已經存在,比如歐洲和德國設立的私人復制補償金制度,就是壹種概括性付費和概括性收費的方式。從成本上看,壹對壹收費並不是著作權制度中實現利益平衡的唯壹付費機制和方式。在此條件下,其他國家可能只是把制度工具箱中已經存在的制度工具拿出來運用而已,然而中國在解釋部分可能面臨更大的難題。解決好歷史遺留問題、做好歷史研究,對於應對當下問題是非常有價值和必要。

(四)著作權救濟規則

第四,從著作權救濟規則看,為了充分保障權利人的權利,我國在在制定人工智能相關的法律時,應當在明確責任主體的同時,要求其承擔訓練數據的來源說明義務(標識義務)。《人工智能法》要求特定主體所承擔的信息提供義務,有利於權利人展開維權。權利人只有知悉其權利被用於數據訓練後,才能據此要求責任主體承擔具體的侵權責任。對此,我國《人工智能法(學者建議稿)》明確了人工智能開發者和人工智能提供者需要承擔標識和信息溯源義務,其可以理解為與著作權有關的信息提供義務(《人工智能法(學者建議稿)》第24和48條)。這種舉證責任的分配能夠提高權利人維權的效率,並降低權利人維權的難度。從比例性的角度看,我國在制定相應規則時,也應當明確信息提供和信息公開的義務並不用具體到每壹個具體的作品,只需要以說明數據集的權利來源即可。對於不提供相應數據來源信息的責任主體,需要承擔相應的責任。

透明度和信息來源披露義務在應對黑箱問題上有很大的優勢,但是這樣的舉證責任的倒置和披露義務的設置,對產業來說是壹種義務的增加。這種義務增加的最終目的是讓產業對其的使用行為支付適當合理的報酬,具體到什麽程度,個人認為,應當滿足比例性要求。
返回
上一篇:美國專利商標局(USPTO)更新人工智能(AI)專利適格性指南 下一篇:警惕!凡以“在審專利即將被駁回需要專業答復”的名義,制造焦慮恐慌,並借機推銷高額專業答復業務的丨此省市場監管局發布風險提示