包括Adobe,Amazon,Google,Meta,Microsoft,Openai和Tiktok在内的技术司令,已自愿承诺采取“合理的预防措施”,以防止滥用人工智能(AI)工具,以破坏全球民主选举。
该公告是由科技高管在慕尼黑安全会议,他们在那里揭开了一个新的自愿框架,旨在解决旨在误导选民的AI生成的深击。根据AP News的报道,IBM和Elon Musk的X等另外13家公司也认可了该协议。
尽管自愿框架主要具有象征性的重量,但其目标是应对现实的AI生成的图像,音频和视频所带来的不断升级的威胁,能够操纵政治人物,选举官员和其他主要利益相关者的外观,声音或行动。
(照片:约翰内斯·西蒙(Johannes Simon)/盖蒂(Getty Images))2月16日:北约秘书长詹斯·斯托尔滕贝格(Jens Jens Stoltenberg)(R)和欧洲委员会主席Ursula von der Leyen在20024年2月16日在2024年2月16日在穆纳尼奇(Munich)在穆纳奇(Munich)的慕尼黑安全大会(Munich Security Countery)在穆纳奇(Munich)在穆纳奇(Munich),在英国穆纳奇(Munich),聆听巴伐利亚州大臣(c)的大臣斯托德·索德(MarkusSöder)。会议将来自世界各地的政治和国防领导人汇集在一起。这是随着俄罗斯在乌克兰的战争即将进入第三年的战争,加沙的冲突继续努力。
立即反对错误信息
尽管签署公司并未承诺完全禁止或删除Deepfakes,但他们概述了在其平台上检测和标记欺骗性AI内容的方法。该协议强调了在签署人之间共享最佳实践并在欺骗性内容开始流传时承诺“迅速而相称的回应”的重要性。
考虑到50多个国家 /地区的2024年全国选举,慕尼黑安全会议协议至关重要。协议的象征性方面掩盖了其在关键技术公司之间的合作,以解决AI生成的内容。涉及AI生成的选举威胁协议的科技公司正在强调透明度,对用户进行欺骗性的AI内容政策,并保护各种表达方式,包括教育,纪录片,艺术,讽刺和政治内容。
之前由技术突出显示,与选举中与AI相关的风险已成为全球关注点,尤其是在世界经济论坛的“全球风险报告2024”中确定AI衍生的错误信息和虚假信息是未来几年的前十名风险,对气候变化,战争,战争和经济不稳定的关注超出了人们的关注。
批评者说不够
尽管该协议获得了支持,但一些亲民主的活动家和看门狗可能会发现承诺模糊不清,缺乏可执行性。缺乏特定要求似乎是旨在适应协议中各种公司的折衷方案。
由于没有联邦立法在美国的政治中规范AI,因此技术公司在很大程度上是自治的,并且在监管机构和公众的压力越来越大,以采取更强有力的措施,以防止误解,包括AI生成的内容。尽管该协议被视为积极的一步,但专家们强调了社交媒体公司实施其他行动的必要性,例如构建内容推荐系统,将准确性优先于参与度。
同时,华盛顿立法者和监管机构也在解决规范医疗保健中的AI,承认未来的问题。
Venture Capital Company Venrock合作伙伴Bob Kocher是前奥巴马政府官员,他难以调节早期AI。他指出,由于责任问题和不熟悉AI的临床决策,医疗保健从业人员可能难以实施AI解决方案。
