經過今年,歐盟在法律上定義了AI用例構成“不可接受的風險”。然而,世界上第一項全面的AI立法仍然希望對禁止的AI用例進行更實際的意見,包括有爭議的應用程序,例如在公共場所執法的現場面部識別。
歐洲人工智能辦公室已經發起了一項諮詢,旨在定義AI系統是什麼以及在AI法案中建立的禁止的AI實踐。該辦公室在實施《 AI法案》中起著關鍵作用,希望該諮詢能夠提供AI系統提供商,企業,公共當局,學術界,民間社會和公眾的其他實際示例和用例。
除了使用執法部門使用實時遠程生物特徵識別外,該諮詢還應對AI實踐的詳細描述,例如對互聯網或CCTV材料的不靶向刮擦或CCTV材料,以進行面部識別數據庫,在工作場所或教育中的情感識別以及用於推斷敏感類別的生物識別分類軟件。
放大玻璃下放置的其他AI用例是使用有害潛意識,操縱和欺騙性的技術,不可接受的社會評分以及個人犯罪風險評估和預測的AI。
邀請利益相關者參加提供他們的輸入到2024年12月11日,這些見解將用於製定歐盟委員會的國家當局和AI提供者和部署者的準則。
歐盟機構無法防止有害的AI出口
儘管歐洲人工智能辦公室剛剛開始運作,但該機構已經面臨批評。
儘管它雄心勃勃地調節AI,但歐盟的AI法案也留下了重大漏洞。這包括允許將風險的AI技術導出到非歐盟國家,包括生物識別和情感識別系統。漏洞可能導致危險的AI系統的擴散,尤其是在全球南部,根據到科學政策顧問威廉·伯恩斯(William Burns)。
歐盟機構,包括AI辦公室,缺乏對AI出口的有效制衡,尤其是因為它們經常受到行業大廳的影響和影響。
伯恩斯寫道:“辦公室將在立法之外承擔激進主義者的任務,例如收集有關海外有害銷售的數據,這是令人難以置信的。” “也許它可能會涉足低調的地平線掃描活動,這將滿足其中一些需求。但是,在沒有出口控制的情況下,沒有可靠的方法來衡量發生的事情,更不用說停止了它了。”
文章主題
||||||