微软为公司在Twitter上的AI Chatbot Tay的行为道歉。
对于那些错过它的人来说在推特上发了一系列种族主义和性别歧视帖子在社交媒体平台上。 Microsoft Research Peter Lee和公司的公司副总裁对“进攻”和“伤害性”的推文深表歉意,这清楚地表明,这些线路并不代表Microsoft或团队如何设计AI。
Lee解释了博客文章中发生的事情,称Tay是“一部分人的协调攻击”的受害者,他们利用了AI Chatbot中存在的脆弱性。
“尽管我们已经为系统的多种滥用做好了准备,但我们对这一特定攻击做出了关键的监督。结果,泰伊在推特上发了一条非常不适当和值得利的单词和图像,”李说。
人们普遍认为,教授泰伊(Tay)的罪魁祸首是臭名昭著的留言板4chan。据说他们滥用了Microsoft AI的“重复”功能,从而使其回应可恶的消息。它不仅重复了进攻线,而且还学会了它们,并将其纳入其词汇量。
不出所料,Tay立即脱机,但是Microsoft打算在开发人员“更好地预期恶意意图”之后将其重新带到网上。但是,不确定该公司的想法是什么。
Tay旨在与美国的18至24岁的人们进行对话,并“对传统理解进行研究”。
微软还在包括GroupMe和Kik在内的其他平台上推出了Tay,它在Twitter上只有一些令人讨厌的用户创建的尖牙。不用说,该公司删除了大多数令人讨厌的推文,其中96,000多个已经下降。
有趣的是,Tay并不是Microsoft的第一个AI聊天机器人的孩子,因为该公司已经在中国推出了小米,在社交媒体界中,大约有4000万用户正在与之互动。
长话短说,Tay是微软在不同的文化环境中的尝试,但是正如每个人所目睹的那样,它失控了。