據報導,歐盟對《 AI法案》達成了一致,該法案是世界上第一項管理和規範人工智能的立法,該法案應在27個國家集團內實施。
時間報導說,該過程使成員國和幾位談判者克服了關於有爭議的問題的重大分歧,例如警察使用面部識別監視和生成性AI。
現在,隨著AI規則正式達成臨時協議,他們在全球範圍內對人類和人工智能產生了更大的影響。美聯社仔細觀察了AI法案及其工作原理。

據報導,《 AI法案》的重點是規範AI的應用,而不是技術本身,對利用AI的商品和服務採用了“基於風險的方法”。法律維護民主,法治和基本自由,例如自由表達的權利,同時促進投資和創造力。
法規,AI申請的風險較高。例如,內容建議系統和垃圾郵件過濾器只需要遵守最小規則,例如披露它們使用人工智能。
醫療設備是必須遵守更嚴格標準的高風險系統的示例,例如使用高質量數據並為消費者提供清晰的信息。
AI ACT的禁止申請
由於歐盟,歐盟還禁止了多個申請“對公民權利和民主的潛在威脅,”其中包括利用敏感特徵(例如政治,宗教或哲學觀點,性取向或種族)的生物特徵分類系統;面孔的未定位的互聯網或CCTV視頻刮擦以構建數據庫以進行面部識別;承認工作場所和教育環境中的情緒;
也禁止以下申請根據其對公民權利和民主的可能損害,例如由個人的社會行為或個人特徵確定的社會得分;人工智能技術控制人類行為以逃避自由意志;最後,AI技術用於利用人們的弱點(由其年齡,障礙,社會或經濟狀況引起)。
這些被禁止的申請包括對執法的豁免,例如使用先前司法授權的生物識別系統。僅允許有限的犯罪。
當對一個犯有重大犯罪或涉嫌這樣做的人進行重點搜索時,僅利用“後遠科”生物識別識別系統。
雖然僅允許實時使用生物特徵識別系統以下用途:
- 預防特定和當前的恐怖威脅。
- 涉嫌犯有法規中列出的一項特定犯罪的人的本地化或確定(例如,恐怖主義,販運,性剝削,謀殺)。
- 有針對性的受害者搜查(綁架,販運,性剝削)。
高風險AI系統
高風險AI系統的明確要求是因為它們具有危害人類健康,安全,基本權利,環境,民主和法治的巨大潛力。據報導,高風險的AI系統還用於影響選民行為和選舉結果。據報導,人們可以針對AI系統提出投訴,並請求有關使用影響其合法權利的高風險AI系統做出的選擇的信息。
據認為,通用AI(GPAI)系統及其建立的GPAI模型必須遵守議會首先提出的透明度標準,以說明AI系統可能會和其能力的快速增加。
根據組織的違規和規模,不遵守指南可能會導致罰款範圍從3500萬歐元,佔全球收入的7%,至750萬歐元,佔營業額的1.5%。
