歐洲在哪裡採用它的人工智慧法規(IA),之後的第一個文本中國對一個既引起熱情又引起關注的行業進行監管? 10 月 2 日至 3 日,舉行了第三場“三場對話”,這次會議是由歐洲議會、理事會(27 個成員國)和歐盟委員會。
自去年夏天以來,歐盟(EU)三位聯合立法者一直試圖就文本的單一版本達成協議。雖然這三部曲使得在某些問題上取得進展成為可能,但仍有分歧。這是你需要記住的。
如何監管像ChatGPT這樣的系統?
這是共同立法者幾個月來一直試圖回答的問題。正如我們去年五月向您解釋的那樣,當歐盟委員會於 2021 年 4 月撰寫此文本時,聊天GPTOpenAI 的對話代理人尚未向公眾開放。生成式人工智慧(這種允許生成文字、程式碼或圖像的技術)的狂熱尚未發生。
最初,歐洲高層在案文中選擇了基於風險的方法,人工智慧根據其用途受到監管,或多或少有很強的透明度和治理義務。這個想法如下:風險越大,這些系統供應商的義務就越重。
但在 2022 年 11 月,ChatGPT 推出,幾個月後其他類似系統(如 Bard 或 Ernie Bot)也推出了。足以促使理事會和歐洲議會想要特別監管這種生成式人工智慧——透過在最初計劃的基礎上添加新的條款。
因此,歐洲議會議員為他們所謂的“基礎模型」。從我們面臨“基礎模型 »,無論風險如何,都必須遵守一定數量的規則。就理事會而言,它選擇繼續採用基於風險的方法邏輯,因為“通用人工智慧」。這意味著,當風險較低時,人工智慧提供者承擔的義務仍然較低。
結果:兩個機構的做法不一致。從術語開始。 “首先,談論基礎模型是危險的,因為它技術性太強»,索邦大學私法講師、“索邦大學人工智慧中心»(SCAI)。兩年來,立法者一直致力於消除人工智慧的技術層面,保留更廣泛的定義,並專注於用例,而不是技術。優點:有了這個“功能性方法»,文本並沒有被鎖定到特定的技術,即基礎模型的技術。當新技術出現時,不得不採用另一種文字的風險較小。但目前,術語的選擇尚未在談判桌上決定。
第二個問題:我們應該贊成議會的做法,還是安理會的做法?歐盟委員會不會選擇其中之一,而是會提出第三種方式:這將是一個兩層系統來監管生成人工智慧的特殊情況,並解釋說情境,10月3日。執行官建議,在第一個層面上,“基礎模型» 只需要尊重良好的做法-這不會是限制性的。在第二個層面上,對於具有重大影響(因此風險最大)的基礎和通用人工智慧模型(這兩個術語都被引用),應該尊重義務。區分這兩個等級的標準尚未確定。但在第三個三段對話中,三位談判者本來可以驗證這個系統的原理,但無需實施。
自我評估過濾器
三部曲達成一致的另一點是:“過濾的» 由歐盟委員會提出,這將可以確定一個系統是否屬於工具類別“高風險」。賭注很高,因為如果是這種情況,後者將不得不承擔更重的義務。
高風險系統的製造商首先必須經過事先評估和合格控製程序,然後才能供歐洲人使用。然後,除了遵守多項義務(例如準確性和網路安全)之外,它將被迫對系統實施人為控制,這是一項具有約束力的政策,用於管理用於培訓的數據。
三個機構商定的這個「過濾器」由什麼組成?在進入市場之前,人工智慧提供者應該進行自我評估。如果他們的系統屬於三個類別之一——該工具執行基本任務,不取代人工評估,或僅執行準備任務——則不會被視為高風險。
這項措施遭到了某些協會的批評,認為這是由人工智慧供應商進行自我評估。這是一個“漏洞,該漏洞賦予公司(…)單方面決定其人工智慧系統不受人工智慧法規要求的權力,即使該系統旨在用於高風險領域之一,例如(…)司法或基本公共服務”,例如,包括人權聯盟在內的大約六十個協會在其報告中寫道9月27日的公開信。
然而,阿諾·拉蒂爾回憶道:“這是事前監管的一般原則,例如 GDPR:我們進行自我評估,事後進行控制」。保障措施將到位:如果人工智慧在健康、基本權利和安全領域發揮作用,它將自動被視為“高風險」。公司應保留進行自我評估的痕跡,一旦發生詐欺行為,應支付高額罰款。
具體來說,我們將「對人工智慧的操作使用保留嚴格的監管,並在只是偶然或純粹程序性的情況下取消它。在我看來,鼓勵創新並防止結構(無論大小)純粹是偶然地受到這些法規的限制是相當公平的。»,阿諾·拉蒂爾估計。在 10 月 25 日的下一場三方對話中,這些條件仍需討論和澄清。
版權仍有疑問
談判代表在沒有決定問題的情況下簡要討論了另一個主題:受人工智慧系統保護的訓練資料的發布問題版權。在此階段不會觀察到任何進展。歐洲議會希望強制產生人工智慧發布所用數據的摘要。這項新義務的方向是正確的,但還不夠,在三部曲開始前幾天,文化演員們懇求道。
權利人和作者要求人工智慧開發者發布一份詳盡的人工智慧訓練過的作品清單。迫使製造商在這個問題上保持透明將使作者能夠維護自己的權利。 “那麼隨之而來的問題是:人工智慧系統產生的成果和權利人如何分享價值?但回答之前首先要有作品的使用紀錄»,阿諾·拉蒂爾強調。
用於「軍事」或「國家安全」目的的人工智慧被排除在《人工智慧法案》之外?
其他問題仍有待決定,例如不受《人工智慧法案》監管的人工智慧系統:是否應該只排除人工智慧系統?專門用於或開髮用於軍事目的»(如議會所希望的)?或者更確切地說,選擇 27 個成員國更廣泛的方法,他們希望所有系統“用於國防和國家安全» 被排除在文本之外:這個問題可以在定於 10 月 25 日舉行的下一場三方對話中解決。