幾個月來,我們一直在與您討論《人工智慧法案》或人工智慧法規,但您仍然沒有完全理解這篇文章的用途、它包含的主要原則、為什麼要採用它這麼多時間,你怎麼會擔心呢?這篇文章適合您。
«幻覺「 的聊天GPT, 重複使用個人資料、系統缺乏透明度…雖然眾多的問題或小問題掩蓋了 ChatGPT 所產生的熱情,中途和所有其他生成人工智慧工具一樣,歐盟幾個月來一直致力於制定監管人工智慧產業的文本。 5月11日,邁出了決定性的一步。歐洲議會議員給了他們的「人工智慧法案」首次開綠燈,或歐洲人工智慧監管。歐洲議會委員會達成的政治協議應在6月中旬的全體會議上獲得通過。
該文本已提交給歐洲代表數月,可能成為世界上第一批有關人工智慧的法律之一。這些法規在世界各地都可以遵循,就像 GDPR(個人資料法規)一樣。但某些主題,例如臉部辨識或產生文字、程式碼和圖像的工具,仍然引起了許多分歧。這篇文章的用途是什麼?這是你需要記住的。
1.《人工智慧法案》,監管人工智慧產業三大支柱之一
之後中國已經發布了重大原則《人工智慧法案》將成為世界上首批對人工智慧開發商施加新的透明度和治理義務的文本之一。它旨在結束當前的“狂野西部”,並將更好地保護歐洲公民。如果不遵守這些新規則,該行業的公司將面臨巨大風險:除了被排除在歐盟市場之外,它們還可能需要支付高達 3,000 萬歐元或營業額 4% 的罰款。
這段文字被設計為總理和校長一組三個元素的文本這將構成未來的歐洲立法。
- 《人工智慧法案》將要求人工智慧開發者作為開放人工智慧對於 ChatGPT,Google對於巴德和其他所有人新的透明度和治理義務。
- 其次,一項未來的指令——尚未討論,但在去年九月提出——將解決以下問題:人工智慧造成的身體或精神損害的責任給歐洲公民。
- 的技術標準最終將由歐洲電子和電工標準化委員會 Cen Cenelec 在第三階段發布。後者將從技術上闡明《人工智慧法案》的義務意味著什麼。 “例如,該法規規定了透明度義務。一旦我們說過了,我們還沒有說出一切。索邦大學私法講師、索邦人工智慧中心 (SCAI) 成員 Arnaud Latil 解釋道。 「生成式人工智慧的透明度與分析工業產品品質的人工智慧不同。該委員會將定義這種透明度的實施é,」專家補充道。
2. 僅對人工智慧的使用進行監管,而不對人工智慧本身進行監管
另一點需要理解:《人工智慧法案》被認為是一個文本,它將規範特定用途人工智慧.這個想法不是說一項技術是好還是壞,而是看如何使用它,以及這種使用會對歐洲公民帶來什麼風險。根據風險程度,人工智慧將分為四個定義類別之一:不允許的風險、極高風險、中度風險和較低風險人工智慧。這風險金字塔將或多或少對人工智慧開發者施加更強的透明度和治理義務。風險越大,債券越強。
- 這不可接受的人工智慧使用是完全禁止的。例如,社會評分就是這種情況,即根據個人的可靠性對個人進行評級。對於旨在使用潛意識技術進行操縱並作用於無意識的系統......或那些利用人的脆弱性的系統也是如此。
- 這高風險用途的人工智慧在向歐洲人開放之前必須經過事先評估和合格控製程序。
這涉及關鍵基礎設施的管理和營運工具、與教育、基本私人和公共服務、移民、人力資源和邊境管制相關的人工智慧系統。對求職者進行排名的履歷分析工具就屬於這一類。
特別是,公司必須(名單很長)建立風險管理系統、系統的人工控制、技術文件以及用於培訓的資料治理的具有約束力的政策。他們還必須遵守準確性、穩健性和網路安全的義務……這些規定的遵守情況將由 27 個成員國指定的監管機構進行監督。
- 這中度風險用途僅對使用者承擔透明度義務。
- 這低風險用途像人工智慧視訊遊戲或垃圾郵件過濾器一樣不受人工智慧法案的監管。
3.採用歐洲法規需要很長時間
歐盟委員會的提案日期為 2021 年 4 月 21 日。Sam Altman,ChatGPT 背後的 Open AI 老闆?首先,因為歐盟內部通過一項法規需要數年時間。 GDPR 花了七年時間才成為法律。然而,歐盟委員會副主席瑪格麗特·維斯塔格 (Margrethe Vestager) 5 月 8 日表示,“我們必須走得更快» 使我們的立法適應人工智慧。
要讓文本成為歐洲法律,我們常常忘記需要三個主要機構的同意:歐盟委員會(執行機構)、歐洲議會(公民的聲音)和理事會(代表 27 個成員國) )。首先,三個器官中的每一個都必須發出單一的位置。該委員會是撰寫該案文的機構。該委員會已經制定了該法規,並在去年秋天發布了經過修改的折衷方案。現在輪到議會提出單一文本,這條道路可能是漫長而痛苦的。對此文本,705名歐洲議會議員提出了數千項修正案。
一旦達到這一步驟——這應該是六月中旬全體會議投票期間的情況,所謂的「三場戲」就會開始。這三個機構圍坐在一起,必須在重大的最終投票之前就單一文本找到共同點。
4、ChatGPT的到來拉長了爭論
在這個漫長的過程中,發生了一件意想不到的重大事件:聊天GPT。該案文於2021年4月21日提出, 任何一個生成式人工智慧出現前幾個月。當時,據估計,GDPR、個人資料法規或 DSA 已採用基於風險的方法,數位服務法,很合適。
然而,隨著 2022 年 11 月 ChatGPT 的推出,以及生成式 AI 和所有內容生成工具的爆炸式增長,“我們有些迫切地意識到,實際上存在多種用途的工具。如果我們想從整體上把握它們,我們就必須擺脫使用方法。»,阿諾·拉蒂爾解釋。翻譯:當輪到歐洲議會議員審查法規並達成協議時,ChatGPT 重新洗牌。我們意識到相同的人工智慧可能會帶來不同的用途和風險。歐洲議會議員隨後想知道他們是否不應該為這種特定的人工智慧添加具體條款。
使用方法會帶來什麼問題?一方面,這允許將公眾辯論集中在最嚴重和最危險的事情上,並將其放在第二位,這是偶然的。但另一方面,「首先,根據風險程度進行區分並不是一門精確的科學。風險方法的危險在於它的利用»,阿諾·拉蒂爾強調。當立法者想知道人工智慧是否有風險時,他會依賴科學家的意見,但也會依賴他對他認為有風險的事物的政治信念。
這例如,法國憲法委員會在巴黎奧運期間確認了增強相機的使用,這是否構成風險? “有些人會告訴你是的,有些人會告訴你不是,所有的科學專業知識,過了一段時間,將由政治部門決定»,教授總結道。
5. 歐洲議會議員增加了…很多
在歐洲議會內部,關於是否為生成人工智慧添加具體規則的問題引起了激烈爭論。最後,代表們認為有必要特別增加這些人工智慧的義務,特別是在透明度和尊重基本權利方面。歐洲議會議員補充:有義務以不侵犯基本權利,特別是言論自由的方式訓練和開發生成式人工智慧。目前這仍然有點不清楚。»,阿諾·拉蒂爾分析。代表們提出的另一個要素是:生成式人工智慧的培訓今後不得侵犯版權。
這些元素遠非唯一。與委員會和理事會的計劃相比,歐洲議會議員擴大了禁止用途清單。基於情緒識別的人工智慧現在已被完全禁止,雇主或警察可以使用它來識別疲勞的員工或司機。特別緊張的是:代表們也禁止在公共場所進行即時和事後遠端生物特徵識別(因此臉部辨識)。不過,如果法官事先授權,追溯使用仍然是可能的。
在這一點上,在最終投票之前,界線仍可能發生變化。但對於該文本的聯合報告員布蘭多·貝尼菲來說,重要的事情並不在那裡。 《人工智慧法案》將規範蓬勃發展的產業,也旨在減輕人工智慧引發的擔憂,例如其對就業和民主的影響。他解釋說:「透過我們的文字我們展示我們想要什麼樣的社會,在這個社會中,(…)預測性警務、生物辨識分類、情緒辨識和網路上臉部影像的歧視性檢索被認為是不可接受的做法»。