儘管歐盟的人工智能法案被譽為世界上第一個全面的人工智能立法,但它仍然存在一些問題。這包括為執法和邊境管制機構使用原本被禁止的人工智能應用程序制定豁免。
在,對構成“不可接受的風險”的人工智能係統的禁令將正式生效。然而,國家安全豁免的存在引發了人工智能規則手冊是否能夠保障權利的問題。
被禁止的具有“不可接受的風險”水平的人工智能應用程序包括基於敏感特徵的生物識別分類系統、工作場所和學校的情緒識別、社會評分、預測性警務以及操縱人類行為的應用程序。歐洲生物識別協會 (EAB)本週,邀請了法律專家、行業利益相關者,例如以及歐盟人工智能辦公室的代表討論生物識別數據在這些應用中的使用。
“這不是絕對禁止,因此需要對規則有充分的了解,”比利時魯汶大學 IT 與知識產權法中心 (CiTiP) 的法律研究員 Abdullah Elbi 說道。
他補充說,最重要的是歐盟委員會、市場監管機構和數據保護機構提供合理的指導方針。
儘管人工智能規則手冊似乎為人工智能應用建立了標準,但它平衡歐盟國家本身的安全和權利保護:政府可以決定是否可以引入例外情況,以便在非常嚴重的犯罪、尋找受害者或防止恐怖襲擊等嚴重威脅等情況下進行實時遠程生物識別。
“在使用遠程生物識別系統方面,歐盟不同成員國可能會出現一些分散的情況,”埃爾比說。
執法部門的豁免導致來自人權組織,他們聲稱他們削弱了針對潛在濫用行為的保護。
然而,歐盟人工智能辦公室的伊琳娜·奧爾西奇指出,歐洲成員國無法就《人工智能法》實施的各個方面進行談判。她說,各個國家可以出台比《人工智能法案》要求更嚴格的法規,但不能出台更寬鬆的法規。
“在實踐中你仍然有一點餘地,因為這些規則將由成員國當局執行,而且他們實際上可能採取略有不同的立場,”《人工智能法案》的共同作者之一奧爾西奇說。
人工智能辦公室隸屬於歐盟委員會,負責協調歐盟成員國之間的法律實施。
等待監管的人工智能法案的另一個例外是基於合規性的人工智能係統評估。
提供商必須將其高風險人工智能係統(包括生物識別系統)通過合格評定程序。然而,《人工智能法案》為某些未經過合格評定的系統在公共安全等特殊情況下投放市場或投入使用敞開了大門。
“市場監管機構可以直接接受使用該系統,但這種授權是有限的——執法機構和民防機構隨後必須執行合格評定程序,”魯汶大學信息技術與知識產權法中心的另一位研究員 Lydia Belkadi 表示。
有兩種不同類型的程序,包括由提供商直接確認的內部控制。在某些情況下,該法案要求第三方(即歐盟成員國指定的公告機構)的參與。
為了確保遵守《人工智能法案》,標準化將發揮關鍵作用。歐洲標準化委員會和歐洲電工標準化委員會正在努力在 2025 年底前推出這些標準。
“總體而言,高風險人工智能係統現在受到價值鏈中不同參與者(包括提供商和部署者)更全面的監督。這些要求確實是尊重基本權利的關鍵,”貝爾卡迪說。
報告指出法國是“稀釋”人工智能法案的主力
一項新的調查顯示,《人工智能法案》中的漏洞和國家安全豁免是主要由法國領導的幾個歐盟成員國發起的運動的結果。
由總統埃馬紐埃爾·馬克龍領導的該國政府戰略性地對該法規進行了修訂,以使執法和邊境機構能夠繞過公共場所遠程生物識別的禁令。意大利、匈牙利、羅馬尼亞、瑞典、捷克、立陶宛、芬蘭和保加利亞等國表示支持法國。
例如,一份報告稱,如果警方出於國家安全考慮,這種例外可能允許氣候示威或政治抗議受到生物識別監控發表調查歐洲和歐盟觀察家。調查機構分析了 100 多份文件,其中包括常駐代表委員會 (Coreper) 會議的文件。 Coreper 的職責是準備歐盟理事會會議的議程。
法國和其他國家還遊說允許所有警察部隊以及移民和邊境當局使用情緒識別系統。之前的報導有該漏洞如何導致權利濫用。基於敏感特徵的生物識別分類系統也獲得了警方的豁免。
法國一直在嘗試2024 年巴黎夏季奧運會期間。
希臘是另一個要求將人工智能法案排除在外的國家,並遊說在公共場所對公民、難民和尋求庇護者進行實時生物識別分析。
該報告還談到了高風險人工智能係統的合規性評估。由於豁免,公司可以進行自我認證,這可以幫助他們規避義務。
雖然荷蘭數字權利律師安東·埃克等一些專家認為,豁免對現實生活影響不大,但其他人則聲稱,最大的影響可能是對弱勢群體,因為他們幾乎沒有抱怨的權力。
布魯塞爾自由大學 (VUB) 助理教授羅莎蒙德·範·布拉克爾 (Rosamunde van Brakel) 表示:“在大多數情況下,監管和監督……只有在違規行為發生後才會開始發揮作用,而不會在此之前保護我們。”
文章主題
||||||||||









