文化部已責成一個諮詢機構,即文學藝術財產高級委員會,承擔兩項與「權利持有人的公平報酬」和透明度義務有關的使命——這是文學藝術財產開發商必須尊重的一項新義務。如果有人譴責新的私人版權稅,或是水中劍,那麼我們必須記住以下幾點。
之後人工智慧委員會的報告在(IA)3月發布的文件中,政府剛啟動了兩項與人工智慧相關的藝術家和權利人的報酬有關的任務。一是關於實施新的透明度義務強加給 OpenAI、Google 或 Mistral 等人工智慧開發人員《人工智慧法案》,歐洲關於人工智慧的法規。另一個涉及文化內容的使用和“權利人的公平報酬»,根據兩封使命信文化部網站4月17日起。
具體而言,文化部長拉奇達·達蒂(Rachida Dati) 要求文學藝術財產高級委員會(CSPLA)(負責向文化部提供有關文學藝術財產問題諮詢的諮詢機構)透過諮詢專家就兩個主題開展工作。然後的目標是編寫一份可用於歐洲層級未來監管或談判的報告。
任務 1:建議實施透明度義務
在第一封信中,CSPLA 被指控“評估透明度義務的範圍» 人工智慧提供者,以及“建立人工智慧開發人員需要發布的資訊列表」。這項新義務其實指的是和 ”掠奪» 作者和藝術家:人工智慧工具的事實“他們膨脹» 在網路上收集的大量數據,其中一些數據受版權保護。在歐洲,藝術家和權利持有者理論上可以訴諸“選擇退出»。
當人工智慧工具收集資料進行訓練時,2019 年版權指令規定了這項保護權利人的系統:如果作者明確反對(如果他「選擇退出」),則該系統«文字和資料探勘»(這種挖掘權,法文)是不可能的。
但在實踐中,這機制很難落實。作者實際上可以在這樣的網站上明確寫道:“我不希望我的作品被使用”,或使用電腦程式來阻止來自這些人工智慧工具的請求。但我們真的不知道這些反對意見是否被考慮在內,因為像 OpenAI、Google 或 Mistral 這樣的人工智慧開發商還沒有傳達用於訓練他們的工具的資料清單。然而,如果沒有這些訊息,作者就無法或很難知道他們的作品是否已被用來訓練人工智慧。
在《人工智慧法案》的談判過程中,歐洲立法者試圖透過添加“來源透明原則」。它要求開發人員發布“足夠詳細的總結» 用於訓練他們的工具的資料。但執行本案文“值得澄清。尤其是該義務所涉及的供應商範圍、所提供資訊的精確程度、工商機密對資訊揭露的影響甚至揭露的形式。», 信中已具體說明。
如果在歐洲層級指定該措施,巴黎打算權衡利弊。這 ”人工智慧辦公» 一個新的歐洲機構將負責“為人工智慧所使用的訓練資料開發一個簡單有效的匯總模型」。為此,它將很快啟動磋商,法國打算參與其中。這就是第一次任務的全部目的,最終報告可以在這些討論中提出。這封信是寫給人工智慧委員會成員、版權法教授亞歷山德拉·本薩莫恩(Alexandra Bensamoun)和專門研究人工智慧的大學教授弗雷德里克·帕斯卡(Frédéric Pascal)的。
使命2:思考人工智慧所使用的文化內容的報酬
第二個任務將由文化經濟學家 Joëlle Farchy 和 Alexandra Bensamoun 執行。這次的重點是「人工智慧系統所使用的文化內容的報酬»。
兩位專家受邀“檢查法律機制”,這將允許“權利持有人獲得公平報酬,並為人工智慧模型供應商提供法律確定性」。這將是 ”保障權利人在人工智慧提供者使用作品過程中權利的有效性」。兩位老師還必須“分析存取受保護資料的經濟問題» 受版權保護,«當這些被人工智慧使用時»。
報告僅在 2024 年底和 2025 年提交:截止日期太長?
兩位專家被要求在 2025 年提交最終報告——第一次任務的結論預計在 2024 年底得出:這兩個截止日期引發了疑問。考慮到這些工具過去和現在的發展,這些報告會不會來得太晚了?
如果有人批評法法兩國的倡議只不過是給歐洲層面監管的行業打了一記耳光,或者其他人已經開始擔心徵收新的私人複印稅,“這兩項任務是必要的,它們是人工智慧委員會報告的邏輯延續»,我們採訪了 Lerins 公司的 Mathilde Croze。
但對於專門從事新技術法的律師來說,尤其是與匯集配音藝術家的協會 Les Voix 合作的律師來說,其他工作也應該同時進行。
«例如,我們在什麼情況下考慮採取措施,透過考慮設立配額或補貼致力於使用人類的作品,來長期保護創意產業免受人工智慧的影響?»,律師問。因為 ”誰最終將為所有這些人的退休提供資金,特別是記者、翻譯、演員、圖形設計師、技術人員、音響工程師,他們將被人工智慧工具取代?更一般地說,我們是否已經放棄聆聽、閱讀和觀看非非人性化的作品?»,她問。