經過今年,歐盟從法律上定義了哪些人工智慧用例會帶來「不可接受的風險」。然而,世界上第一個全面的人工智慧立法仍然希望對被禁止的人工智慧用例提供更多的實際投入,包括有爭議的應用,例如執法公共場所的即時臉部辨識。
歐洲人工智慧辦公室發起了一項磋商,旨在定義什麼是人工智慧系統以及《人工智慧法案》中規定的禁止的人工智慧實踐。該辦公室在《人工智慧法案》的實施中發揮關鍵作用,希望此次諮詢能夠提供來自人工智慧系統提供者、企業、公共當局、學術界、民間社會和公眾的更多實際例子和用例。
除了執法部門使用即時遠端生物識別之外,諮詢還應該更詳細地了解人工智慧實踐,例如無針對性地抓取互聯網或閉路電視材料以用於面部識別資料庫、工作場所或教育中的情緒識別以及生物辨識分類用於推斷敏感類別的軟體。
其他被放在放大鏡下的人工智慧用例包括使用有害的潛意識、操縱和欺騙技術、不可接受的社會評分以及個人犯罪風險評估和預測的人工智慧。
利害關係人受邀參加提供他們的意見到 2024 年 12 月 11 日。。
歐盟機構無法阻止有害的人工智慧出口
儘管歐洲人工智慧辦公室剛開始運作,但該機構已經面臨批評。
儘管雄心勃勃地監管人工智慧,但歐盟的人工智慧法案也留下了重大漏洞。這包括允許有風險的人工智慧技術出口到非歐盟國家,包括生物識別和情感識別系統。這個漏洞可能導致危險的人工智慧系統擴散,特別是在南半球國家,根據科學政策顧問威廉伯恩斯。
包括人工智慧辦公室在內的歐盟機構缺乏對人工智慧出口的有效制衡,特別是因為它們往往資源不足並受到產業遊說的影響。
伯恩斯寫道:“該辦公室在立法之外承擔激進的任務,例如收集海外有害銷售的數據,這是令人難以置信的。” 「也許它可以涉足低調的地平線掃描活動,以滿足其中一些需求。但在缺乏出口管制的情況下,沒有可靠的方法來衡量正在發生的事情,更不用說阻止它了。
文章主題
||||||