2月6日,国家科学基金会(NSF)网络和信息技术研究与发展国家协调办公室(NCO)发布了请求有关制定人工智能(AI)行动计划的信息。公众意见期截至3月15日,向NCO提交了8,000多个评论。尽管NCO尚未公开评论,但许多评论的各方已将其评论公开,并代表了业务,公共政策和私人利益的横节。
尽管每个受访者都从不同的立场开始了AI治理,但他们的共同担忧反映了更广泛的行业范围,以提供清晰度,确保获取数据,鼓励自愿标准并防止监管分裂的政策。无论背景如何,普遍的情绪是政府在促进AI创新方面发挥支持作用,而不是施加可能扼杀进展的限制性任务。
综上所述,回答说明了AI发展的复杂而不断发展的政策格局。总体主题包括需要监管性清晰度,平衡数据治理政策,特定于部门的监督以及国际合作,以确保AI驱动系统的安全和道德使用。
确保法律清晰度,加强隐私保护,促进创新以及解决偏见问题对于塑造AI发展和法规的未来至关重要。这些回应强调了平衡的监管方法的重要性,该方法可以在维护基本权利的同时实现技术进步。
确实,随着NSF AI行动计划开始成立,决策者将不得不在培养创新,保护隐私,确保安全和维持全球竞争力之间达到平衡。 AI的未来将由这些监管讨论如何展开,从而影响从合规要求到数字身份验证和身份验证系统的技术进步的所有事物。
出现的一个重大问题是监管清晰度和国家标准的需求。许多受访者强调,对AI法规的分散方法,尤其是在州一级,可能会一直构成合规性挑战。统一联邦框架的呼吁与生物识别认证和隐私问题特别相关,这些问题通常需要在不同司法管辖区和行业之间进行互操作。
例如,全国州立法机关会议表示:“强烈认为政府间合作对于制定强大的AI行动计划至关重要,以确保这项新技术被用于增强美国的领导力和支持和推动我们的公民,企业和社区。”
该业务圆桌会议表示,特朗普政府必须“与行业合作制定自愿,协调,灵活的AI开发和部署标准,并建立在多方利益相关者场地中广泛采用的现有标准的基础上。AI标准是通过政府,工业,公民社会,学术界,学术界和国际党之间的紧密合作而开发的,是最有效的。”
它鼓励使用国家标准技术研究所(NIST),说“这是通过强大的公私伙伴关系制定的强烈现有风险管理指导的一个例子。”
企业圆桌会议说:“在涵盖AI系统的新规则或现有规则中,应将监管护栏被认为是必要的,决策者应为企业提供明确的指导,促进我们的创新,并基于风险的方法,以仔细考虑并认识到仔细的疾病,以避免有较低的信息,以避免使用较低的危险和常规范围。此外,随着人工智能产品,用例和市场的发展,AI治理和监管应发展。”
The American National Standards Institute (ANSI) said that in order “to balance opportunities and risks in AI deployment, we recommend that the new AI Action Plan prioritize private-sector-led standardization efforts that involve the participation of all affected stakeholders, including government. These efforts include developing and deploying technical and safety standards and related conformity assessment solutions that address key areas: AI risk hierarchies, acceptable risks, and tradeoffs; data quality,出处和治理;
Ansi说:“在适当的情况下,公私合作伙伴关系可以加快新的AI应用程序和系统的部署。”
Openai类似地促进了一种“确保创新自由的监管策略”,他说:“为了创新真正创造新的自由,美国的建筑商,开发商和企业家(我们国家最大的竞争优势)必须首先具有创新的自由。我们提出了一个旨在实现联邦政府和私人私人党派自愿合作伙伴的善良方法。”
斯坦福大学斯坦福大学以人工智能和斯坦福大学研究中心的基础模型研究中心也主张开放创新,并说:“开放创新是美国AI生态系统的基石,加剧了协作,竞争和快速的实验。从创业公司到技术公司和学术机构,各种各样的研究人员都以共同的进步,推动更快的突破和更大的技术弹性为基础。”
Technet是技术首席执行官和高级管理人员的两党网络,该网络通过提倡在联邦和州一级的有针对性的政策议程来促进创新经济的增长。
该组织说:“任何AI法规都应集中于缓解已知或合理可预见的风险,并在整个AI价值链中适当地指定责任和责任。”
Technet进一步表示,技术标准应基于行业框架和最佳实践。它在回应中说:“为了促进创新并适应技术变化,我们鼓励使用行业框架和基于证据的监管工具,例如安全港口,使行业可以测试和共享最佳实践。”
计算机与通信行业协会(CCIA)指出,全国各地的州立法机关目前正在制定各种与AI相关的立法,并且“尽管在某些地区可能存在独特的当地问题,但AI政策的绝大多数政策将通过一项统一的国家政策来提供明确的确定AI价值链中各种参与者的责任。”
CCIA认为,“一般而言,联邦立法应抢占有关Frontier AI模型发展和部署的州法律”,“这种先发制人应在这些领域中完全抢占州法律,以确保统一的联邦方法。”但是,这种方法确保了一致性并促进了对跨多个州开展业务的企业的遵守,从而防止了可能损害消费者,阻碍创新并为行业增长造成不必要的障碍的零散的监管格局。”
CCIA说:“虽然通常更可取抢先优势,但各州仍将发挥作用。” “特别是,州立法机关非常适合解决特定的差距或独特的当地问题,而联邦法规可能无法充分涵盖这些差距。
CCIA补充说:“联邦机构应澄清现有法律对AI的应用,并指出,只有在人工智能系统中存在的风险或危害,而不是人类或非AI软件中不存在的情况。”
AI所提出的灾难性风险对公共安全和国家安全的灾难性风险进行了详细讨论,他说:“一旦AI系统在广泛的任务中具有很高的能力,即使在美国的大量工作不需要的工作中,也要为AI工作负载提供高度安全的选项,这将非常重要。”
METR补充说:“先进的AI系统是外部对手,间谍或流氓员工盗窃和滥用盗窃和滥用的宝贵目标。此外,可能无法在没有实质性的安全性和内部控制的情况下安全测试或部署AI系统。例如,对于确保对核武器的使用量很重要的AI对于核心武器的使用量很重要。
文章主题
|||||||