OpenAI 應該在 4 月 30 日之前向義大利 CNIL 提供擔保,否則將受到該國禁止 ChatGPT 的處罰。對專家來說,這是一種浪費的努力:這家美國公司將很難證明它尊重與個人資料相關的歐洲標準。
不可能的任務? ChatGPT 背後的公司 OpenAI 只剩下 10 天的時間來遵守擔保人的決定,義大利 CNIL 暫停了該國的對話代理。該機構於去年 3 月啟動了歐盟(EU)和世界各地對生成人工智慧的監管,並要求開放人工智慧它符合有關個人資料的歐洲標準。這家美國公司必須在 4 月 30 日之前出示其資格。對於某些專家所引用的麻省理工科技評論4 月 19 日,事情很簡單:OpenAI 正直奔牆壁。
他不可能對這個負責保護私人生活的當局提出的問題作出積極回應。因為它不可能使其活動符合一般資料保護條例,保護我們個人資料的歐洲法規。未來幾週甚至可能會改變生成式人工智慧(如對話式聊天)的訓練方式,估計我們同事引用的專家。
在訓練時,人工智慧會吸收個人數據
因為 Garante 以及其他歐洲和加拿大當局提出的質疑是這種人工智慧的工作方式,即從網路上獲取天文數字的資料進行訓練。原理很簡單,數據越多,AI的效率就越高。然而,該操作帶來了三個問題。其中數據第一次滑倒個人資料例如,在未遵守 GDPR 規定的條件的情況下收集的姓名或電子郵件地址。該數據的收集通常必須在相關人員同意的情況下進行,或“合法利益例外» – 通常允許免除使用者明確授權的規定。
問題:所有試圖利用此例外來證明資料處理合理性的平台都被歐洲法院駁回。 OpenAI 很可能也是如此。
在運作時,人工智慧會攝取然後反芻個人數據
第二個問題:使用ChatGPT時,不要給予任何個人訊息,專家建議。確實可能存在與聊天機器人分享親密和私人資訊的傾向——例如一個人的精神狀態、政治觀點、健康問題。然而,在這裡,這些數據也將輸入機器。這意味著他們隨時都可能出來。目前幾乎不可能刪除這些資料並反對它們被重複使用——這也是 GDPR 通常規定的兩點。我們的同事引用了人工智慧研究員、谷歌人工智慧倫理部前共同負責人瑪格麗特·米切爾 (Margaret Mitchell) 的話說,OpenAI 將發現無法識別個人資料並將其從模型中刪除。
她解釋說,這就像大海撈針一樣。即使 OpenAI 設法刪除了用戶數據,也不確定這項措施是否會是永久性的。已刪除的資料可能會繼續在網路上傳播,即使在「刪除」很久之後也是如此。
它不尊重處理準確數據的義務
第三個問題:處理被視為準確的資料的權利,也受到 GDPR 的保障。您並沒有註意到對話代理有“幻覺»,理解,聊天機器人會犯錯。在法國,ChatGPT 宣稱 MP Éric Bothorel 出生於 1961 年,他是拉尼翁或聖布里厄的市長,並且曾在 Orange 工作:三條不準確的信息。這位政客向 CNIL 提出投訴。 ChatGPT 錯誤有時會嚴重得多。例如,對話代理人錯誤地聲稱一名澳洲民選官員被判犯有腐敗罪,或一名律師被指控在阿拉斯加旅行期間對一名學生進行性騷擾。
結果:很難看出 OpenAI 如何逃脫重罰或禁令。根據我們同事引用的紐卡斯爾大學網路法教授 Lilian Edwards 的說法,OpenAI 的違法行為如此明目張膽,以至於此案很可能最終會提交給歐盟法院審理。
在歐洲,網路上找到的資訊不被視為公開的
OpenAI的防禦是什麼?在一個4 月 5 日的部落格文章,這家美國公司表示,它會努力根據要求從鍛煉數據中刪除個人信息,“如果可能的話」。她補充說,她的模型接受過訓練公開可用的內容、授權內容以及由人工審閱者產生的內容。
在美國,這種培訓可能是合法的,因為任何公開的內容(在網路和社交網路上廣播)都不被認為屬於該領域。私人的»,強調我們的同事。但在歐盟,與保護隱私和個人資料有關的規則要求更高。資訊並不是因為存在於社群網路上而變得公開。我們同事引用的 Lilian Edwards 教授回顧了 GDPR 的規則。歐洲公民有權了解他們的數據是如何收集和使用的。他們也有權從這些系統中刪除他們的數據,即使數據原件可在網路上取得。
因此,OpenAI 的回應尤其令人期待。特別是因為這場衝突的結果可能會對所有生成人工智慧產生影響。 Garante 和 OpenAI 之間的糾紛結果可能會從根本上改變人工智慧公司收集資料和訓練模型的方式,特別是如果當前的方法根據歐洲法律被視為非法的話。該決定僅適用於歐洲,世界其他地方也可能效仿。原因是什麼? GDPR 是世界上關於保護個人資料最嚴格的法律之一,其原則已被其他國家採用。
來源 : 麻省理工科技評論