2025年1月,唐纳德·特朗普总统发布了行政命令(EO)14179,消除美国在人工智能领导的障碍。它标志着美国人工智能政策的大幅度转变,重点是消除政府在AI发展中所说的“意识形态偏见”和“工程社会议程”。
结果,美国国家标准技术研究所(NIST)的回应是指示与美国人工智能安全研究所(AISI)合作的科学家,以删除所有关于“ AI安全”,“负责人AI”和“ AI公平”的参考。拜登(Biden)对AI的行政命令于2023年在商务部下建立了AISI,以制定所谓的“值得信赖” AI的测试,评估和准则。
NIST的指令是3月初分发的AISI联盟成员的更新合作研究与发展协议的一部分。 NIST协议的先前版本强烈鼓励研究人员贡献旨在识别和解决AI模型中的歧视性行为的技术工作,尤其是与性别,种族,年龄和经济不平等有关的技术工作 - 所有偏见都会通过不成比例地影响少数群体和经济上的弱势群体来极大地影响最终用户。
但是,这种戏剧性的转变与特朗普政府强调减少AI模型中的意识形态偏见相吻合。目的是通过促进AI创新可以在没有监管限制的环境中蓬勃发展的环境来增强美国的经济竞争力和国家安全,而政府将其视为不必要的障碍。特朗普的EO撤销了拜登政府的AI政策,该政府强调了AI的安全性,公平性和缓解歧视性行为。
新的EO下令对所有现有的AI相关政策进行全面审查,以识别和删除被视为创新障碍的政策。它还建立了一个180天的时间表,以制定一项战略计划,以确保美国在AI中的领导,并由白宫主要官员的监督,包括新任命的AI和Crypto新任命的特别顾问David Sacks。
生物识别更新较早特朗普选择的麻袋是“ AI Czar”,这表明政府打算朝着减少AI的监管,这是特朗普所倡导的,因为共和党控制的国会议员。
麻袋的选择引发了科技界和决策者的混合反应。批评者对他偏爱有限的监督,潜在的行业偏见以及与他的私营部门活动相关的利益冲突以及他的“特别政府雇员”身份的关注引起了人们的关注,从而将他免除了标准确认程序和参议院确认的官员所需的全面财务披露。批评家认为,缺乏透明度的风险破坏了公众信任,并可以使他能够促进与他的专业利益保持一致的政策,而无需足够的责任。
特朗普的EO在技术界引发了强烈的反应。尽管有些人称赞这一举动是防止对AI研究的出于政治动机的约束的必要步骤,但其他人则批评这一行动是危险地放弃道德和安全考虑因素。
最声音的批评家之一是梅塔(Meta)的首席AI科学家Yann Lecun。林肯谴责该政策是“学术界的巫婆狩猎”。他将政府的行动与冷战时代的红色恐慌进行了比较,警告他们可以驱使美国科学家在国外寻求研究机会。林肯(Lecun)和其他行业领导人认为,过度专注于消除感知的意识形态偏见可能会无意中导致歧视性或不安全AI系统扩散的放松管制AI景观。
特朗普的EO的含义广泛。一方面,白宫的方法可以通过减少监管障碍,可能使美国公司比全球竞争对手具有优势来加速美国的AI开发,但另一方面,通过剥夺安全性和道德准则,AI系统将变得更加倾向于歧视性或无意义的后果。反向歧视。
白宫政策转变还使美国与其他全球大国,尤其是欧洲联盟的不同道路,该国正在实施严格的AI法规,强调透明度,问责制和公平。这种监管不匹配几乎可以肯定会对在国际运营的美国公司面临挑战,因为它们可能被迫遵守不同的标准。
在国内,联邦政府对AI法规的监督减少已经导致各个州实施自己的AI法律,从而构成了笨拙的拼凑而成的监管景观。现在,企业面临挑战,即在不同司法管辖区之间导航不一致的规则,这只会使AI的开发和部署变得复杂。
此外,政府对AI政策的单方面立场很可能会阻碍国际建立共同安全和道德标准的努力,从而有可能减少美国在全球范围内塑造AI治理的未来的影响。
同时,削减AISI的潜在资金正在引起技术领域的担忧,许多人担心特朗普的努力降低了联邦政府的规模,可能会危及发展负责人的AI的努力。据报道,NIST的试用员工正在为即将终止的终止。人们担心AISI与Nist的《美国筹码计划》的工作人员一起被故意拆除。
据报道,NIST准备裁员497名员工,其中包括74名博士后研究人员,57%的筹码员工负责激励计划,其中67%的人专注于研究和发展。这些潜在的失业加剧了长期以来的怀疑,即在特朗普的政府领导下,艾西最终可能面临封闭。
“感觉几乎就像一匹特洛伊木马。就像那匹马的外观很漂亮。这是很大的,这是我们希望美国成为AI领导者的信息,但是内部的实际行动是拆除联邦责任和联邦资金以支持这一任务,”密歇根大学的机器人,电气工程和计算机科学教授Jason Corso告诉山。
NIST的未来仍然不确定。同时,AISI本月初失去了董事,其工作人员被排除在最近在巴黎举行的AI峰会之外。特朗普尚未提名NIS的新董事,但在商务部长霍华德·卢特尼克(Howard Lutnick)正式负责的情况下,预计该部门的各个机构会进一步改变。
尽管特朗普的行政命令试图通过优先于监管限制来将美国定位为AI中的主要力量,但它们也引起了人们对这种方法的长期影响的重大关注。技术进步与道德责任之间的平衡仍然是一个关键的辩论,批评家警告说,缺乏护栏可能会导致AI系统加剧偏见,缺乏责任感和造成不可预见的社会风险。
特朗普破坏AI政策的稳定性加强了我们的AI领导层还是导致不可预见的后果还有待观察,无疑为在AI社区的持续争议和辩论奠定了基础。
文章主题
|||||||||