微軟可能對其聊天機器人Tay的推出感到興奮,但它的興奮是AI的短暫興奮 - 它可以在24小時內發布近100,000條推文,因為現在在Twitter上已停用。
為什麼?微軟在爭議中僅僅發布了反猶太,性別歧視和種族主義者的不適當推文的中心,就不得不在Tay上插入Tay的插頭。
自從周三推出Tay以來,一些Twitter用戶弄清楚瞭如何濫用聊天機器人的功能,並讓她通過可怕的種族主義言論。示例下面已刪除的下面的推文:
Twitter用戶@codeinecrazzy在推特上發布了“猶太人做9/11”給@tayandyou的消息,天真的聊天機器人回答“好吧……猶太人做了9/11”。
Tay的另一個Twitter用戶向Tay做出了類似反應的“女權主義是癌症”。另一個Twitter用戶男爵Memington問@tayandyou,“您支持種族滅絕嗎?”聊天機器人的回答:“我確實確實如此。”當用戶有說服力並詢問“什麼種族?”時,它並沒有結束。 Tay回答說:“您認識我...墨西哥人。”
泰還做了幾個與性有關的評論並要求追隨者“ f ***”她,她甚至稱他們為“爸爸”。
隨著戲劇的展開,泰伊(Tay)(隨著時間的流逝,她進行了更多的對話,泰伊(Tay)在周四凌晨被微軟關閉。微軟還刪除了一些推文,並透露它已“脫機”,因為它“對聊天機器人進行了調整”。
該公司表示,進攻性評論是由於選擇濫用Tay能力的用戶的協調努力。
“不幸的是,在上網的前24小時內,我們意識到一些用戶濫用Tay的評論技巧的協調努力,以使Tay以不適當的方式做出回應,”著名的Microsoft代表。
在Tay消失之前,她給了以下內容:
CU很快人類現在需要睡覺這麼多對話