為了避免陷入性別和膚色刻板印象,Google的圖像生成人工智慧產生了歷史上虛假表達的圖像,例如黑人納粹士兵或開國元勳中的女性。面對爭議,谷歌做出了一個激進的決定。在另行通知之前,雙子座不再可能產生人物或角色的圖像。
既不是金髮也不是白人的納粹士兵或維京人,美利堅合眾國「開國元勳」中的女性…Google試圖利用人工智慧工具克服性別和膚色刻板印象雙子座(原巴德),該公司於 2 月 22 日星期四宣布暫停部分人工智慧。在進一步通知之前,現在不可能在 Gemini 上產生人物或角色的圖像,直到未來推出其工具的改進版本。
我們已經在努力解決 Gemini 影像生成功能的最新問題。在我們這樣做的同時,我們將暫停人物圖像的生成,並將很快重新發布改進的版本。https://t.co/SLxYPGoqOZ
— 來自Google的新聞 (@NewsFromGoogle)2024 年 2 月 22 日
透過這項聲明,這家數位巨頭試圖結束一場爭議。最近幾天,社交網路上發布了由 Gemini 生成的人物圖像,該工具自 2 月初以來在美國可用,但在法國和歐洲無法使用,引發了爭議。透過輸入“1943年的德國士兵»,美國使用者產生了黑人納粹士兵的圖像。同樣,黑人或亞洲維京人,或女性開國元勳也被觀察到——但直到 1922 年,才有一名(白人)女性成為參議員。
谷歌承認“失手”
一名前谷歌員工在他的 X 帳戶上解釋說,他“很難讓雙子座承認白人的存在»。
讓Google雙子座承認白人的存在是非常困難的pic.twitter.com/4lkhD7p5nR
— 迪迪 (@deedydas)2024 年 2 月 20 日
雖然這可能會讓你微笑——我們知道生成人工智慧會犯錯誤,稱為“幻覺”,它們遠非可靠或任何歷史現實的保證,正如其一般使用條件所回憶的那樣——這些信息隨後導致了陰謀社群媒體上的理論說邊緣,2 月 21 日星期三。
谷歌宣布暫停人物或角色的創建,在其新聞稿中承認,它已經“失敗的”。該公司承認「歷史圖像的某些表述不準確」。對於在 X 上發言的 Gemini 產品總監 Jack Krawczyk 來說,該公司一直致力於確保其圖像生成工具“根據人工智慧原則(很好地)反映了世界各地谷歌用戶的多樣性»。
https://twitter.com/JackK/status/1760334258722250785
人工智慧系統放大的性別或膚色刻板印象
自ChatGPT於2022年底推出及其競爭對手於2023年推出以來,可以使用不同的提示、簡訊產生文字或圖像。但幾個月來,許多人一直擔心這些工具會放大性別或膚色刻板印象:Google希望避免這個陷阱,但最終導致了另一個陷阱。
事實上,人工智慧系統是基於在網路上收集的數十億數據,並且充滿刻板印象和偏見。如果我們向人工智慧提供此類數據,它自然會重現這些偏見。因此,它將白人與領導角色聯繫起來,將女性與助理或家庭主婦聯繫起來,將黑皮膚與窮人或有需要的人聯繫起來。 “演算法不僅再現現實,而且「過度鍵入」現實。也就是說,根據他們已有的數據,他們提供了一個更刻板的版本», 日內瓦大學電腦科學家兼教授 Isabelle Collet 在接受瑞士媒體採訪時詳細介紹海蒂新聞。
另請閱讀:為什麼演算法仍然存在性別歧視
為了解決這個問題,谷歌因此試圖糾正這些刻板印象——這最終導致消除了某些皮膚或性別歧視……甚至改變了某些歷史事實。 「 這歷史背景帶來更多細微差別,因此我們將調整我們的模型”,Gemini 的產品總監在他的 X 帳戶上補充道,理想情況下,人工智慧模型應該學會檢測這種歷史背景,以避免包含多樣性標準:這是一個真正令人頭痛的問題,目前谷歌尚未解決。
這對這家數位巨頭來說是個壞消息,幾個月來,該公司一直在努力追趕其競爭對手 OpenAI(ChatGPT 和 Dall-E 背後的公司)。對於這家加州巨頭來說,時機再糟糕不過了:上週,Sam Altman 的公司推出了 Sora,這是其新的生成式人工智慧模型,能夠根據用戶命令生成影片。
來源 : Google 2 月 22 日新聞稿