如果NIST是电视节目,那将是Dragnet,清醒的,事实上的美国侦探表演,犯罪解决了一个低调的观察,一次是一个平静的询问。
例子:NIST,美国政府的首席生物识别标准组织发表了“识别和管理人工智能中偏见的建议”。
是一个谦虚的建议, 的确。该行业的一些外围人士说,偏见需要被剥夺根和茎,但是对AI的投入的深度和广度使这项任务成为了重大挑战。
反而,nist研究人员首先寻求一种发现生物识别偏见然后进行管理的方法,这两个目标都可以实现最终的估算。
他们也是问了对于如何最好地评估对AI的信任的公众意见。 NIST继续钻入AI的信托指标。它以其众所周知的(自然,臭名昭著)来基准面部识别精度面部识别供应商测试。
该机构的新报告草案倡导企业主,大学研究人员,法律专家,社会学家之间的讨论,甚至可能会在AI偏见下遭受边缘化的人群。
首先,NIST希望移动这个社区,以找到共识标准和基于风险的框架,可能导致“值得信赖和负责任的人工智能”。
当查看多少基本概念仍然不确定时,即使NIST的新提议的规模也变得清晰。确实,机构研究人员说,减轻AI本身风险的想法是“仍然定义不够定义的构件创造可信赖”。
与AI社区合作的研究人员发现了八个值得信赖的人工智能的组成部分,每个人都可以通过不同的社区来不同:准确性,可解释性和可解释性,隐私性,可靠性,可靠性,稳健性,安全性,安全性和安全性。
不过,它更深了。 NIST在宣布草案时指出,该领域中有AI系统为“犯罪行为”或“就业适用性”进行建模,而当两种概念都无法可靠地衡量时。
取而代之的是,软件开发人员用混凝土替代了偏见的指标,例如一个人居住的地方或申请人完成了多年的学校。
评论欢迎到8月5日。