美国政府希望每个人都更好地将信任纳入其AI产品的设计,开发,使用和评估。忽略可信度已引起主要问题对于某些人。
实际上,美国国家标准技术研究所已发布第二稿其AI风险管理框架,并希望对员工创建的内容进行意见。
nist想要创建一个自愿和协作的文件,在AI社区中被接受为现实但仍然有抱负。 NIST在很大程度上意识到,除非将AI视为透明和基于标准的人,否则AI将仍然是深奥甚至外星人的概念。
关于框架的评论可以发送到[email protected]到9月29日,提到反馈的研讨会定于10月18日至19日。
有一个框架剧本,也是草稿。
nist希望不仅仅是评论。它想听到社区的消息资源包括解释性论文,测量和评估方法,工具包和政策。
该组织还正在寻找候选人在美国撰写AI的历史。
NIST WANT的官员看一只手能够绘制人工智能国内发展的详细图片的研究承包商。
在这种情况下,在这种情况下,在这种情况下,不一定会造成任何合同,而NIST是国家人工智能咨询委员会的立法中介。
如果订购合同,NIST将寻找有关委员会的“主题领域”以及技术和分析支持的报告。
在承包商会深入研究的13个领域中,包括:该国在人工智能中的竞争力如何,人工智能科学的状态是什么,人工通用情报局的距离是什么,委员会是否有助于维持美国的立场,并且联邦法律是否充分解决了道德和安全问题?
没有提及截止日期。