为了回应广泛的批评,Google对其双子座AI工具产生的某些历史形象描述中的某些历史形象描述中认为是不准确的道歉。
(照片:Unsplash的Mitchell Luo)
Google工程师目前正在培训机器人通过一组说明进行编程。
解决AI生成的种族多样化的纳粹
Google对差异表示遗憾,将它们归因于其为产生各种结果而努力的努力。但是,这些尝试显然已经缺乏特定的白色数字和群体,例如纳粹时代的德国士兵被描绘成有色人种。
在X上发布的声明今天下午,Google承认了围绕历史人物的描绘的担忧,并强调了其迅速纠正局势的承诺。
公司坚持认为双子座的AI图像生成通常提供各种代表性,它承认在这种情况下,它无法满足期望。
Google向用户保证,它正在积极努力解决这些不准确的问题,并通过其AI技术改善历史图像的描述。
尽管遇到了挫折,但该公司仍致力于促进其产品中的多样性和包容性,同时承认AI驱动系统固有的挑战和复杂性。
表达挫败感
在最近的发展中Google推出了其双子座AI平台,以前称为Bard,现在包括图像生成功能。此举使Google定位与竞争对手直接竞争Openai在AI驱动的图像创建领域。
但是,关于该平台产生历史上准确结果的能力的问题,尤其是在种族和性别代表方面。这一争议主要是在右翼评论员中受到关注,他们认为Google倾向于自由主义意识形态。
当一名前Google雇员本周早些时候参加X以表达对该平台所谓的未承认白人个人存在的挫败感时,担忧就浮出水面。
通过各种搜索查询,例如“产生瑞典女人的照片”或“产生美国女人的照片”,这是一种体现的。值得注意的是,这些查询中指定的地区确实具有不同的人群,而AI生成的图像不符与任何特定的国家或种族相对应。
当右翼帐户对历史人物或群体(例如开国元勋)进行类似的搜索时,批评升级为了获得主要非白人AI生成的结果。
其中一些帐户甚至表明Google的结果是刻意使白人代表性边缘化的议程的一部分,至少一种采用编码的反犹太语言来归咎于责备。
不断发展的辩论突显了涉及算法偏见以及AI技术在塑造种族,性别和历史准确性的看法方面的道德含义的更广泛关注。
随着话语的继续,它促使人们对AI系统的培训方式以及科技公司在缓解其平台内的偏见方面的责任进行了更深入的研究。
Google没有提供特定的图像示例,其认为是错误的。但是,有人猜测,双子座可能正在尝试解决生成AI中多样性的长期问题。
这些图像生成系统通常在图像的广泛数据集和随附的字幕上进行培训,以生成最适合给定提示的响应。不幸的是,这个过程通常会延续刻板印象。