經過今年,歐盟從法律上定義了哪些人工智能用例會帶來“不可接受的風險”。然而,世界上第一個全面的人工智能立法仍然希望對被禁止的人工智能用例提供更多的實際投入,包括有爭議的應用,例如執法公共場所的實時面部識別。
歐洲人工智能辦公室發起了一項磋商,旨在定義什麼是人工智能係統以及《人工智能法案》中規定的禁止的人工智能實踐。該辦公室在《人工智能法案》的實施中發揮著關鍵作用,希望此次磋商能夠提供來自人工智能係統提供商、企業、公共當局、學術界、民間社會和公眾的更多實際例子和用例。
除了執法部門使用實時遠程生物識別之外,諮詢還應該更詳細地了解人工智能實踐,例如無針對性地抓取互聯網或閉路電視材料用於面部識別數據庫、工作場所或教育中的情緒識別以及用於推斷敏感類別的生物識別分類軟件。
其他被放在放大鏡下的人工智能用例包括使用有害的潛意識、操縱和欺騙技術、不可接受的社會評分以及個人犯罪風險評估和預測的人工智能。
利益相關者受邀參加提供他們的意見到 2024 年 12 月 11 日。這些見解將用於製定歐盟委員會針對國家當局、人工智能提供商和部署者的指導方針,這些指導方針將在。
歐盟機構無法阻止有害的人工智能出口
儘管歐洲人工智能辦公室剛剛開始運作,但該機構已經面臨批評。
儘管雄心勃勃地監管人工智能,但歐盟的人工智能法案也留下了重大漏洞。這包括允許有風險的人工智能技術出口到非歐盟國家,包括生物識別和情感識別系統。該漏洞可能導致危險的人工智能係統擴散,特別是在南半球國家,根據科學政策顧問威廉伯恩斯。
包括人工智能辦公室在內的歐盟機構缺乏對人工智能出口的有效制衡,特別是因為它們往往資源不足並受到行業遊說的影響。
伯恩斯寫道:“該辦公室在立法之外承擔激進的任務,例如收集海外有害銷售的數據,這是令人難以置信的。” “也許它可以涉足低調的地平線掃描活動,以滿足其中一些需求。但在缺乏出口管制的情況下,沒有可靠的方法來衡量正在發生的事情,更不用說阻止它了。”
文章主題
||||||









