![](https://assets.iflscience.com/assets/articleNo/77915/aImg/81922/google-ai-m.jpg)
Google说,现在应该将AI用于国家安全。
图片来源:shaheerrr/shutterstock.com
Google的母公司Alphabet重新起草了其政策,以指导其使用(AI),取消承诺永远不会以“可能造成总体伤害”的方式使用该技术。这包括武器化AI以及用于监视目的。
2018年,成千上万的员工抗议公司决定允许五角大楼使用其算法分析军事无人机录像的决定。作为回应,Alphabet拒绝续签与美国军方的合同,并立即宣布了四条红线,该线条誓言在使用AI时永远不会越过。
出版一组原则,Google包括一个标题为“我们不会追求的AI应用程序”的部分,在该部分中列出了“造成或可能造成总体损害的技术”以及“主要目的或实施的武器或其他技术或直接促进的武器或其他技术对人的伤害。” AI黑名单上还提到了监视和“违反国际法和人权原则的违反国际法和人权原则的技术”。
然而,更新其原理本周早些时候,Google从指南中取消了整个部分,这意味着不再保证该公司不会使用AI来造成伤害。取而代之的是,这家技术巨头现在对“开发和部署模型和应用程序可能会大大超过可预见的风险”,这对“开发和部署模型和应用程序”提供了模糊的承诺。”
解决政策变更博客文章Google的高级副总裁James Monyika和Google DeepMind联合创始人Demis Hassabis写道:“自从我们在2018年首次发布我们的AI原则以来,该技术已经迅速发展,从边缘研究主题到日常生活的普遍元素。
两人援引“在日益复杂的地缘政治环境中为AI领导力进行的全球竞争”,他说:“民主国家应以自由,平等和对人权尊重等核心价值观为指导。”他们现在为AI设想的申请中,有加强国家安全的申请 - 因此,以前的保证不使用AI作为武器。
考虑到这一点,Google说,现在努力利用该技术“帮助应对人类的最大挑战”,并促进“积极利用AI”的方式,而没有确切说明这是什么作用,更重要的是 - 更重要的是 - 不需要。
没有对公司将不会参与哪些活动的任何具体陈述,那么,两人说,Google的AI使用将“与广泛接受的国际法和人权原则保持一致”,并且他们将“共同努力创建可以保护人民,促进全球增长并支持国家安全的人工智能。”