這個建議一定會讓產生人工智慧 (AI) 的開發人員畏縮不已。 7 月 5 日星期三,國家數位倫理試點委員會 (CNPEN) 發布了有關該技術的諮詢意見。該法國組織認為,投放市場的基礎模型和生成式人工智慧系統必須被視為“高風險系統»,定義在歐洲人工智慧法規(或稱“人工智慧法案”)目前歐盟(EU)內部正在討論中。自去年 11 月 ChatGPT 出現及其引發的人工智慧競賽以來,歐洲立法者一直在想,生成式人工智慧是否不應成為特殊條款的主題。
這項技術允許從命令生成文字、程式碼和圖像,引起了人們的興奮和擔憂。除了對就業影響的擔憂之外,這項技術還導致了人工智慧帶來的錯誤訊息、資料保密、惡意使用,甚至盜用創作者作品的問題,暫時不受法律監管。去年 2 月,數位事務部長 Jean-Noël Barrot 聯繫了這個 2019 年創建的法國組織,“啟發有關數位倫理議題的公共辯論」。五個月後,後者發表了他的意見,他建議公眾生成人工智慧的更重義務。他建議將這些模型與開源發布的模型區分開來。
說主流生成式人工智慧是高風險系統:這是什麼意思?
雖然一般公共系統將承擔嚴格的義務,但開放取用工具只需遵守較輕的透明度義務。 《人工智慧法案》實際上定義了一個由四個類別組成的風險金字塔,其中包括高風險人工智慧。人工智慧帶來的風險越大,人工智慧開發人員的透明度和治理義務就越大。
因此,說主流生成式人工智慧應被視為高風險系統意味著開發人員必須採取一系列保障措施和限製程序。如果按原樣通過該文本,相關公司將必須創建一個風險管理系統、一個用於培訓的資料治理的具有約束力的政策,甚至是系統的人工控制。理論上,它們還應該在歐洲人使用之前經過事先評估和合格控製程序。
這些主流型號是什麼?我們發現 ChatGPT、OpenAI 的對話式聊天及其競爭對手,如 Bard(來自 Google)、圖像生成工具,如 Dall-E 或中途。最終,委員會認為,這些系統比其他系統被公民使用得更多,因此必須受到更多的監督。相反,以“開源”形式發布的模型目前不太受歡迎,只會受到“設計師的透明度和評估義務“,除非它們用於被考慮的部門”高風險» – 《人工智慧法案》定義的部門,例如健康或招募。
謹慎、品質來源、評估…道德委員會的其他建議
然後,委員會提出了其他幾項建議,有時相當模糊,例如“經濟行為者和公共機關必須謹慎行事生成式人工智慧系統的採用速度以及初步和持續評估的計劃」。針對人工智慧為訓練而獲取的資源問題,其中包括不準確的信息,然後最終出現在對話代理的回應中,委員會寫道,設計師必須“贊成使用優質來源,根據明確的標準進行判斷,用於產生人工智慧模型的學習語料庫的建構和使用及其最佳化»。
為了避免偏見和歧視,該組織還正在推動建立控制機構和實施定量評估。這將涉及在啟動基礎模型的同時發布此評估。該意見的作者還建議實施“水印»,使得區分人類作品和人工智慧工俱生成的作品成為可能。版權的改編根據生成人工智慧技術» 也推薦。
一項打算在布魯塞爾產生影響力的提案?
在這份純粹的諮詢文本中,委員會打算在歐盟各立法機構(歐盟委員會、27個成員國和歐洲議會)現在必須成為這三個機構之間妥協的主題。而且,最終版本可能包含生成人工智慧的條款。
歐盟委員會發布的初始文本是在「ChatGPT 狂熱」之前於 2021 年 4 月 21 日編寫的。聊天GPT當該法規於 2022 年 11 月推出時,歐洲議會正在研究該法規,該法規促使歐洲議會不顧一些專家的建議,並添加了僅適用於此類人工智慧的新條款。
開發這些生成工具的公司正在爭取相反的立場,認為產生人工智慧不是一個高風險系統。後者特別指出,過重的義務可能會迫使他們離開歐洲市場——這一理由一直被認為是存在的。ChatGPT 背後的 OpenAI 創始人 Sam Altman 在退出之前。因此,道德委員會將自己置於那些認為此類人工智慧需要特殊規定和更大義務的陣營中。三部曲將決定什麼還有待觀察,該步驟包括在重大的最終投票之前將三個歐盟機構聚集到同一張桌子上。下次會議將於 7 月 18 日舉行。
來源 : CNPEN 2023年7月5日通知