为了避免陷入性别和肤色刻板印象,谷歌的图像生成人工智能生成了历史上虚假表述的图像,例如黑人纳粹士兵或开国元勋中的女性。面对争议,谷歌做出了一个激进的决定。在另行通知之前,双子座上不再可能生成人物或角色的图像。
既不是金发也不是白人的纳粹士兵或维京人,美利坚合众国“开国元勋”中的女性……谷歌试图利用人工智能工具克服性别和肤色刻板印象双子座(原巴德),该公司于 2 月 22 日星期四宣布暂停部分人工智能。在进一步通知之前,现在不可能在 Gemini 上生成人物或角色的图像,直到未来推出其工具的改进版本。
我们已经在努力解决 Gemini 图像生成功能的最新问题。在我们这样做的同时,我们将暂停人物图像的生成,并将很快重新发布改进的版本。https://t.co/SLxYPGoqOZ
— 来自谷歌的新闻 (@NewsFromGoogle)2024 年 2 月 22 日
通过这一声明,这家数字巨头试图结束一场争议。最近几天,社交网络上发布了由 Gemini 生成的人物图像,该工具自 2 月初以来在美国可用,但在法国和欧洲无法使用,引发了争议。通过输入“1943 年的德国士兵»,美国用户生成了黑人纳粹士兵的图像。同样,黑人或亚洲维京人或女性开国元勋也被观察到——但直到 1922 年才有一名(白人)女性成为参议员。
谷歌承认“失手”
一位前谷歌员工在他的 X 账户上解释说,他“很难让双子座承认白人的存在»。
让谷歌双子座承认白人的存在是非常困难的pic.twitter.com/4lkhD7p5nR
— 迪迪 (@deedydas)2024 年 2 月 20 日
虽然这可能会让你微笑——我们知道生成人工智能会犯错误,称为“幻觉”,它们远非可靠或任何历史现实的保证,正如其一般使用条件所回忆的那样——这些信息随后导致了阴谋社交媒体上的理论说边缘,2 月 21 日星期三。
谷歌宣布暂停人物或角色的创建,在其新闻稿中承认,它已经“失败的”。该公司承认“历史图像的某些表述不准确”。对于在 X 上发言的 Gemini 产品总监 Jack Krawczyk 来说,该公司一直致力于确保其图像生成工具“根据人工智能原则(很好地)反映了世界各地谷歌用户的多样性»。
https://twitter.com/JackK/status/1760334258722250785
人工智能系统放大的性别或肤色刻板印象
自ChatGPT于2022年底推出及其竞争对手于2023年推出以来,可以使用不同的提示、短信生成文本或图像。但几个月来,许多人一直担心这些工具会放大性别或肤色刻板印象:谷歌希望避免这个陷阱,但最终导致了另一个陷阱。
事实上,人工智能系统基于在网络上收集的数十亿数据,并且充满刻板印象和偏见。如果我们向人工智能提供此类数据,它自然会重现这些偏见。因此,它将白人与领导角色联系起来,将女性与助理或家庭主妇联系起来,将黑皮肤与穷人或有需要的人联系起来。 “算法不仅再现现实,而且还“超类型”现实。也就是说,根据他们已有的数据,他们提供了一个更加刻板的版本», 日内瓦大学计算机科学家兼教授 Isabelle Collet 在接受瑞士媒体采访时详细介绍海蒂新闻。
另请阅读:为什么算法仍然存在性别歧视
为了解决这个问题,谷歌因此试图纠正这些刻板印象——这最终导致消除了某些皮肤或性别歧视……甚至改变了某些历史事实。 “ 这历史背景带来更多细微差别,因此我们将调整我们的模型”,Gemini 的产品总监在他的 X 帐户上补充道,理想情况下,人工智能模型应该学会检测这种历史背景,以避免包含多样性标准:这是一个真正令人头痛的问题,目前谷歌尚未解决。
这对于这家数字巨头来说是个坏消息,几个月来,该公司一直在努力追赶其竞争对手 OpenAI(ChatGPT 和 Dall-E 背后的公司)。对于这家加州巨头来说,时机再糟糕不过了:上周,Sam Altman 的公司推出了 Sora,这是其新的生成式人工智能模型,能够根据用户命令生成视频。
来源 : Google 2 月 22 日新闻稿