法國負責保護私人生活的當局於 5 月 16 日星期二發布了一項行動計劃,要求生成式人工智慧開發商遵守規定。與義大利當局相比,當局選擇了一條不那麼正面的道路,後者已在義大利禁止 ChatGPT 數週。
繼馬克宏 (Emmanuel Macron) 的聲明之後人工智慧誰呼籲“試著理解(AI),成為e”,在“之前”思考框架與實例»,這裡是監管方面。負責尊重我們的當局個人資料國家資訊科技與自由委員會 (CNIL) 本週二(5 月 16 日)在其網站上發布了人工智慧行動計畫。其目標是“為開發尊重的人工智慧系統做出貢獻私生活」。自從 ChatGPT 及其競爭對手推出以來,生成式人工智慧(一種允許生成文字、圖像或電腦程式碼的技術)引起了人們的關注關於隱私保護的許多疑問。
未經授權或保密地重複使用受版權保護的數據,「幻覺」使會話聊天機器人說某位教授捲入了騷擾案件,但事實並非如此,缺乏透明度……此類技術很難遵守歐洲立法保護隱私和個人數據,包括歐洲個人資料法規GDPR。因此,CNIL 描述了其行動計劃,以使這些人工智慧系統符合這套規則。她打算怎麼做呢?分四個步驟:了解人工智慧系統、明確規則、支援企業、最後審計和控制。
與義大利 Garante 相比,正面方法較少
因此,CNIL 並沒有採取與義大利同行相同的相當具有攻擊性的做法,義大利同行選擇用拳頭敲桌子。ChatGPT,您可以在此下載由於不遵守 GDPR,擁有 2 億用戶的會話機器人 3 月在該國已連續幾週無法存取。 ChatGPT 背後的公司 OpenAI 最終同意了一些讓步,隨後該聊天機器人於 5 月初在該國再次獲得授權。在法國,顯然不會像義大利那樣採取預防性封鎖。根據負責數位轉型和電信的部長級代表 Jean-Noël Barrot 的立場,CNIL 在其行動計劃中選擇了一種不那麼正面的方法,即:控製而不是阻止。
該機構在開始其行動計劃時回顧說,人工智慧是其多年來致力於研究的一個主題。該機構主席 Marie-Laure Denis 向我們的同事解釋說,負責保護我們資料的人還沒有透過 ChatGPT 發現人工智慧。迴音,5月16日是什麼星期二
今年夏天有什麼未來的建議嗎?
當局首先希望了解這項技術的工作原理,然後再澄清眾多有問題的文件,這將是未來的主題”具體建議」。其中需要澄清的一點是:使用者傳送到對話聊天的資料如何被對話代理人重複使用?例如,機密資訊在與聊天機器人的「討論」過程中被洩露。然後,它們最終進入“機器”,然後被對話機器人重複——這導致三星表示,其員工必須停止使用該工具,以避免敏感資料外洩。
另請閱讀: ChatGPT:三星威脅要解僱使用人工智慧的員工
它還打算解決訓練資料的難題,其中一些資料是在未經作者同意的情況下使用的,例如受著作權保護的作品t。 AI的偏見、整改權和反對權也將是這方面反思的一部分。該監管機構宣布將在夏季發布有關該主題的指南和建議,這些文本應來自 100% 致力於人工智慧的新服務以及 CNIL 數位創新實驗室 (LINC)。
這些不同的作品將使“開發尊重個人資料的人工智慧», 強調權威。他們還將幫助為未來的歐洲人工智慧監管做好準備,該監管將於六月在歐洲議會進行投票。
為法國人工智慧公司提供支援和建議
CNIL 描述了法國人工智慧玩家的另一個部分。今年,一加強支撐特別是針對被認為面臨風險的法國公司。其中,Contentsquare(正在利用人工智慧開發線上用戶旅程追蹤解決方案)和Hugging Face(人工智慧協作平台)將受益於該計畫為期六個月。
審計與控制
最後,仍然存在壓制性方面——旨在保護人員的系統和控制的審計部分。 CNIL 表示已獲悉針對 OpenAI 公司(推出 ChatGPT 的新創公司)的多項投訴。也開啟了控製程式。當局也回顧說,工作小組是在歐盟 27 個 CNIL 的代表機構內創建的,以便以相同的聲音反對該行業的巨頭。所有這些措施是否足以讓這些新的科技關鍵參與者倒閉?