经过今年,欧盟从法律上定义了哪些人工智能用例会带来“不可接受的风险”。然而,世界上第一个全面的人工智能立法仍然希望对被禁止的人工智能用例提供更多的实际投入,包括有争议的应用,例如执法公共场所的实时面部识别。
欧洲人工智能办公室发起了一项磋商,旨在定义什么是人工智能系统以及《人工智能法案》中规定的禁止的人工智能实践。该办公室在《人工智能法案》的实施中发挥着关键作用,希望此次磋商能够提供来自人工智能系统提供商、企业、公共当局、学术界、民间社会和公众的更多实际例子和用例。
除了执法部门使用实时远程生物识别之外,咨询还应该更详细地了解人工智能实践,例如无针对性地抓取互联网或闭路电视材料以用于面部识别数据库、工作场所或教育中的情绪识别以及生物识别分类用于推断敏感类别的软件。
其他被放在放大镜下的人工智能用例包括使用有害的潜意识、操纵和欺骗技术、不可接受的社会评分以及个人犯罪风险评估和预测的人工智能。
利益相关者受邀参加提供他们的意见到 2024 年 12 月 11 日。这些见解将用于制定欧盟委员会针对国家当局、人工智能提供商和部署者的指导方针,这些指导方针将在。
欧盟机构无法阻止有害的人工智能出口
尽管欧洲人工智能办公室刚刚开始运作,但该机构已经面临批评。
尽管雄心勃勃地监管人工智能,但欧盟的人工智能法案也留下了重大漏洞。这包括允许有风险的人工智能技术出口到非欧盟国家,包括生物识别和情感识别系统。该漏洞可能导致危险的人工智能系统扩散,特别是在南半球国家,根据科学政策顾问威廉伯恩斯。
包括人工智能办公室在内的欧盟机构缺乏对人工智能出口的有效制衡,特别是因为它们往往资源不足并受到行业游说的影响。
伯恩斯写道:“该办公室在立法之外承担激进的任务,例如收集海外有害销售的数据,这是令人难以置信的。” “也许它可以涉足低调的地平线扫描活动,以满足其中一些需求。但在缺乏出口管制的情况下,没有可靠的方法来衡量正在发生的事情,更不用说阻止它了。”
文章主题
||||||