這就是爭論的焦點:如何像 ChatGPT 一樣監管生成型 AI?儘管談判預計將結束,但對於如何管理基金會模型仍沒有共識。對於法國以及另外兩個成員國來說,一個簡單的行為準則就足夠了。這一立場遠未達成一致,尤其是在權利持有者和創作者之間。面對這一僵局,歐盟委員會提出了一份新文件,其中結合了版權方面的行為準則和義務。
編者註:本文於 11 月 20 日星期一發表,並於 11 月 21 日星期二進行了更新,以納入歐盟委員會的新提案。
距離 12 月 6 日,也就是下一部三部曲的上映日期,只剩下兩週多一點的時間了。«人工智慧法案»,歐洲人工智慧法規。然而,27個成員國、歐洲議會和歐盟委員會之間仍存在分歧,例如透明度問題以及如何監管生成式人工智慧,例如聊天GPT,OpenAI 開發的對話代理。最近幾天,包括法國在內的三個成員國之間達成協議的消息使得三位歐洲聯合立法者不太可能在年底前就文本達成一致。據報道,為了結束僵局,歐盟委員會提出了一項新提案情境,本週二,11 月 21 日。
法國、義大利、德國就基礎模型達成協議?
11 月 18 日星期六,路透社根據我們的同事獲得的一份非官方文件,法國、義大利和德國在基礎模型上找到了共同點。然而,這項共同立場尚未得到這三個成員國的確認。但據該通訊社報道,這三個國家將捍衛所謂的基本人工智慧模型的自我監管理念。這將是一個“透過行為守則進行強制性自我監管» 但沒有製裁,至少是立即制裁。
未來對AI的監管“監管人工智慧的應用,而不是技術本身”,我們確實可以閱讀這份文件。正如我們向您解釋的該文本由歐盟委員會於 2021 年 4 月提出,無意管轄該技術本身。他基於此技術的使用定義了風險金字塔。其原則是:人工智慧系統的使用風險越大(例如在人權方面,如用於社會控制目的的臉部辨識系統),該系統的供應商必須尊重透明度和治理義務。完全禁止使用。起初,因此,《人工智慧法案》僅對風險最高的用途施加了真正的義務例如教育、人力資源或基本的私人和公共服務。
但一波之後聊天GPT歐洲議會於 2022 年 11 月啟動,在沒有質疑這項基本原則的情況下,決定引入新的規定。歐洲議會議員特別補充新的透明度義務僅適用於“基礎模型」。從我們面臨“基礎模型 »,無論有什麼風險,都必須遵守一定數量的規則。作為成員國代表的理事會選擇繼續採用基於風險的方法,因為“通用人工智慧»。
因此,整個問題是歐洲議員添加的新規定是否會在談判中存活下來,以及以什麼形式:這些是真正的義務還是需要遵守的簡單行為準則?
幾天前,是法國新創公司執行長阿瑟‧門施 (Arthur Mensch)米斯特拉爾人工智慧,他在一則長推文中表明了立場X。他解釋說,他很遺憾文本偏離了基於使用的最初方法,而是對基礎模型本身施加了義務。他提出疑問,因為我們如何監管一個不被使用的模型。根據後者的說法,新的義務將有利於 OpenAI 或谷歌等現有參與者(它們都不是歐洲的),而不利於像他的公司這樣試圖出現的新參與者。
法國、德國和義大利可能會同意這些基金會模式不承擔任何義務,並選擇透過行為準則進行自我監管。根據歐洲活性劑誰也可以獲得這份著名的非官方文件,這三個國家將懇求僅對「通用人工智慧系統」的特定(且有風險)應用進行監管,而不是基礎模型本身。
為了區分哪些有風險,哪些不會有風險,這些成員國將建議基本模型的開發者發布一種技術表、技術文檔。後者“將包含相關信息,以了解模型的工作原理、其功能和局限性,並將基於開發人員社區內的最佳實踐», 根據我們同事引用的文件。
«人工智慧治理機構可以幫助制定指南並驗證表格的應用» 他們補充道,技術。文件稱,最初,如果公司不遵守這項行為準則,則不應實施制裁。但如果屢次違規,可以建立制裁制度。
創作者站出來反對法國的立場
這一立場如果得到官方確認,將意味著藝術家創作者防禦協會正在爭取的兩條條款將被跳過,即第28B 條和第52 條。保持透明,因為後者需要發布用於培訓的受保護資料的或多或少詳細的摘要。第 52 條要求人工智慧產生的所有內容都應貼上這樣的標籤。
儘管如此,11 月 17 日星期五,文化部門還是發布了一份公報,要求法國政府審查其副本,而不是“不要犧牲透明度的義務,否則就無法建立任何堅實的基礎»。 «只有訓練資料和產生內容透明的無形原則才能確保公民和創作者的權利受到尊重。», 撰寫本文的作者,由 80 個工會和組織簽署,包括新聞、出版、電影、音樂和攝影領域的工會和組織。
如果沒有透明度——因此有義務公佈用於訓練人工智慧並受版權保護的內容列表,那麼作者和權利持有者實際上很難甚至不可能獲得使用其作品的補償。幾乎不可能知道某項特定工作是否實際上是用於訓練特定的人工智慧系統。去年11月9日報道情境、法國和德國否決了這項透明度義務。從我們路透社同事報導的文件來看,文化世界的新聞稿似乎並沒有絲毫改變法國的立場。
但這引起了歐盟委員會的反應,並提出了新的妥協方案,解釋道情境 本週二,11 月 21 日。一方面,呈現系統性風險的一般模式應遵循行為準則。另一方面,更基本的模式應該尊重真正的義務,包括一些與版權有關的義務。這些模型的供應商應發布用於訓練其係統的內容的“足夠詳細的摘要”。還有一點回應了文化界的訴求:這些企業必須要採取措施尊重選擇退出,權利持有者拒絕將其作品用於培訓目的。 2019 年版權指令確實規定了,但「資料和文字探勘”,人工智慧系統有權出於培訓目的收集文字或圖像,包括受版權保護的文字或圖像,以用於研究目的。
然而,這項在 ChatGPT 啟動之前構思和通過的條款並沒有描述如何實施這種選擇退出 — — 如果通過,委員會提議的這項條款將填補這一點。最後,創作者部門的另一個要求,即明確表明人工智慧創建的任何文字、程式碼、圖像或影片是否是人工智慧生成的內容,也是歐洲主管部門提案的一部分。
行為準則的想法:一個壞主意?
但對某些人來說,首先是行為準則本身的想法——因此制定非強制性標準的事實——會帶來問題。根據歐洲活性劑這份非正式文件引用了歐洲議會一位官員的話說,透過提出行為準則,將成為真正的“宣戰»,與歐洲議會議員通過的版本相反。
巴黎律師協會律師兼數位法專家 Olivier Iteanu 在聲明中回憶道11 月 19 日的博文,在沒有法律對 OpenAI 等生成式 AI 提供者強加的情況下,一般使用條件 (CGU) 適用。什麼時候如果您使用 ChatGPT,這些條款和條件具有法律效力。現在,他們怎麼說?無論聊天機器人如何使用,OpenAI 都不承擔任何責任。 “如果這個立場在法庭上站不住腳,勇敢的個人使用者需要多少年、金錢和時間才能被承認?» 專家問道,他懇求建立一個公共秩序條例。基礎模型或通用人工智慧將如何被吞噬?他們必須遵守義務或簡單的行為準則嗎?技術討論預計將於本週恢復。
來源 : 路透社