2月6日,美国国家科学基金会(NSF)网络与信息技术研究与发展国家协调办公室(NCO)发布索取有关制定人工智能 (AI) 行动计划的信息。公众意见征询期截至 3 月 15 日,已向 NCO 提交了 8,000 多条意见。虽然 NCO 尚未公开发表评论,但许多发表评论的各方都公开了他们的评论,并且代表了企业、公共政策和私人利益的各个方面。
尽管每位受访者从不同的角度看待人工智能治理,但他们共同的担忧反映出全行业范围内更广泛地推动制定政策,以提供明确性、确保数据访问、鼓励自愿标准并防止监管碎片化。无论背景如何,普遍的观点是政府应该在促进人工智能创新方面发挥支持作用,而不是施加可能抑制进步的限制性指令。
总的来说,这些回应说明了人工智能发展的复杂且不断变化的政策格局。总体主题包括需要明确的监管、平衡的数据治理政策、针对特定部门的监督以及国际合作,以确保人工智能驱动系统的安全和道德使用。
确保法律明确性、加强隐私保护、促进创新和解决偏见问题将是塑造人工智能发展和监管未来的核心。这些回应强调了平衡监管方法的重要性,该方法可以在保障基本权利的同时促进技术进步。
事实上,随着 NSF 人工智能行动计划开始成形,政策制定者将必须在促进创新、保护隐私、确保安全和保持全球竞争力之间取得平衡。人工智能的未来将取决于这些监管讨论的展开方式,影响从合规性要求到数字身份验证和身份验证系统技术进步机会的一切。
出现的一个重大问题是监管清晰度问题和国家标准的必要性。许多受访者强调,人工智能监管的分散方式,特别是在州一级,可能会带来全方位的合规挑战。对统一联邦框架的呼吁与生物识别认证和隐私问题尤其相关,这些问题通常需要跨不同司法管辖区和行业的互操作性。
例如,全国州立法机构会议表示,“坚信政府间合作对于制定强有力的人工智能行动计划至关重要,以确保利用这项新技术来增强美国的领导力,支持和推动我们的公民、企业和社区的发展。”
商业圆桌会议表示,特朗普政府必须“与业界合作制定自愿、协调、灵活的人工智能开发和部署标准,并以多利益相关方制定的现有广泛采用的标准为基础。通过政府、行业、民间社会、学术界和国际合作伙伴之间的密切合作制定的人工智能标准是最有效的。”
它鼓励使用美国国家标准与技术研究院 (NIST),称其“是通过强大的公私伙伴关系制定的强有力的现有风险管理指南的一个例子。”
商业圆桌会议继续表示,“无论是在涉及人工智能系统的新规则还是现有规则中,如果认为有必要制定监管护栏,政策制定者应为企业提供明确的指导,促进美国创新,并采取基于风险的方法,仔细考虑和认识不同用例的细微差别,包括低风险和常规用例。应精心制定报告要求,以避免不必要的信息收集和繁重的合规负担,从而减缓创新。此外,人工智能治理和监管应随着人工智能产品、用例和市场的发展而发展。自己进化。”
美国国家标准协会(ANSI)表示,为了“平衡人工智能部署中的机会和风险,我们建议新的人工智能行动计划优先考虑私营部门主导的标准化工作,并让包括政府在内的所有受影响利益相关者参与。这些工作包括开发和部署技术和安全标准以及相关的合格评定解决方案,解决关键领域:人工智能风险层次、可接受的风险和权衡;数据质量、来源和治理;安全;以及基准、测试、监控和风险管理。”
ANSI 表示:“在适当的情况下,公私合作伙伴关系可以加快新人工智能应用程序和系统的部署。”
OpenAI 同样提倡“确保创新自由的监管战略”,并表示“为了让创新真正创造新的自由,美国的建设者、开发商和企业家——我们国家最大的竞争优势——必须首先拥有符合国家利益的创新自由。我们提出了一种整体方法,使联邦政府和私营部门能够建立自愿伙伴关系。”
斯坦福大学斯坦福大学以人为中心的人工智能研究所和斯坦福大学基础模型研究中心也提倡开放式创新,表示“开放式创新一直是美国人工智能生态系统的基石,促进了协作、竞争和快速实验。为了保持这一优势,美国必须保护、保存和促进开放模型的使用,而不是施加可能减缓创新和孤立国内开发者的广泛限制……这种方法允许从初创公司到技术公司和学术机构的各种研究人员在共同进步的基础上,推动更快的发展突破和更大的技术弹性。”
TechNet 是一个由技术首席执行官和高级管理人员组成的两党网络,通过在联邦和州层面倡导有针对性的政策议程来促进创新经济的增长。该网络表示,“人工智能系统应该负责任地开发、部署和使用,使美国能够保持其竞争优势和创新领先地位。”
该组织表示,“任何人工智能法规都应侧重于减轻已知或合理可预见的风险,并在整个人工智能价值链中适当指定责任和义务。”
TechNet进一步表示,技术标准应基于行业框架和最佳实践。 “为了促进创新和适应技术变革,我们鼓励使用行业框架和安全港等基于证据的监管工具,让行业能够测试和分享最佳实践,”它在回应中表示,并补充说,“相信政府应该推广通过行业主导的流程制定的技术标准和行为准则,帮助人工智能利益相关者向用户表明该平台使用值得信赖的人工智能系统。”
计算机和通信行业协会(CCIA)指出,全国各地的州立法机构目前正在制定一系列与人工智能相关的立法,“虽然某些领域可能存在独特的地方问题,但统一的国家政策可以最好地服务于绝大多数人工智能政策,该政策可以明确确定人工智能价值链中各个参与者的责任。”
CCIA 认为,“一般来说,联邦立法应优先于有关前沿人工智能模型的开发和部署的州法律”,并且“这种优先权应完全优先于这些领域的州法律,以确保统一的联邦方法。”然而,“这种方法可以确保一致性并促进跨多个州运营的企业的合规性,防止监管环境分散,从而损害消费者、阻碍创新并为行业增长造成不必要的障碍。”
CCIA 表示:“虽然全面先发制人通常更可取,但各国仍将发挥作用。” “特别是,州立法机构非常适合解决联邦法规可能无法充分涵盖的特定差距或独特的当地问题。通过从先发制人的假设出发,并允许各州在必要时采取行动来填补差距,这种方法将确保国家在管理前沿人工智能方面的统一性,同时满足各州的特定需求。”
CCIA 补充说:“联邦机构应澄清现有法律对人工智能的适用。”并指出,“只有存在人工智能系统特有的风险或危害,且不存在于人类或非人工智能软件等效物中的情况下,才需要立法。”
模型评估和威胁研究 (METR) 小组详细讨论了人工智能对公共安全和国家安全造成的灾难性风险,并表示“一旦人工智能系统在广泛的任务中具有强大的能力,那么在美国为人工智能工作负载提供高度安全的选择将非常重要,即使绝大多数工作不需要它。”
METR 补充道,“先进的人工智能系统是外部对手、间谍或流氓员工盗窃和滥用的宝贵目标。此外,如果没有充分的安全和内部控制,可能无法安全测试或部署某些人工智能系统。例如,安全地测试针对核武器相关任务进行微调的专门人工智能模型非常重要,无论是用于实际使用还是评估基本模型构成的风险水平。”
文章主题
||||||||









