微軟為公司在Twitter上的AI Chatbot Tay的行為道歉。
對於那些錯過它的人來說在推特上發了一系列種族主義和性別歧視帖子在社交媒體平台上。 Microsoft Research Peter Lee和公司的公司副總裁對“進攻”和“傷害性”的推文深表歉意,這清楚地表明,這些線路並不代表Microsoft或團隊如何設計AI。
Lee解釋了博客文章中發生的事情,稱Tay是“一部分人的協調攻擊”的受害者,他們利用了AI Chatbot中存在的脆弱性。
“儘管我們已經為系統的多種濫用做好了準備,但我們對這一特定攻擊做出了關鍵的監督。結果,泰伊在推特上發了一條非常不適當和值得利的單詞和圖像,”李說。
人們普遍認為,教授泰伊(Tay)的罪魁禍首是臭名昭著的留言板4chan。據說他們濫用了Microsoft AI的“重複”功能,從而使其回應可惡的消息。它不僅重複了進攻線,而且還學會了它們,並將其納入其詞彙量。
不出所料,Tay立即脫機,但是Microsoft打算在開發人員“更好地預期惡意意圖”之後將其重新帶到網上。但是,不確定該公司的想法是什麼。
Tay旨在與美國的18至24歲的人們進行對話,並“對傳統理解進行研究”。
微軟還在包括GroupMe和Kik在內的其他平台上推出了Tay,它在Twitter上只有一些令人討厭的用戶創建的尖牙。不用說,該公司刪除了大多數令人討厭的推文,其中96,000多個已經下降。
有趣的是,Tay並不是Microsoft的第一個AI聊天機器人的孩子,因為該公司已經在中國推出了小米,在社交媒體界中,大約有4000萬用戶正在與之互動。
長話短說,Tay是微軟在不同的文化環境中的嘗試,但是正如每個人所目睹的那樣,它失控了。