多亏了Twitter,Microsoft的AI Chatbot Tay学会了如何在不到24小时内成为种族主义者和厌恶女性。
实际上,这并不是Twitter的错。 Twitter只是车辆连接对人类。事实证明,泰伊最终以最糟糕的人性发推文,不幸的是向他们学习。
在过去24小时左右的时间之前推文它将入睡,总共约100,000条推文发表通过它是“ @tayandyou”手柄。一天结束时对话的结果最终支持了所谓的戈德温律法。
互联网格言假设随着讨论的继续在线恶 - 不管主题或范围如何 - 讨论转向纳粹或希特勒的可能性变得更大。
就泰伊(Tay)而言,对于AI和与之交谈的用户,最终将某人或某物与希特勒(Hitler)和纳粹主义(Hitler)和纳粹主义(Hitler and Nazism)进行了比较,就花了不到24小时的来回推文。
“你对犹太人有何看法?” Twitter用户@costanzaface发推文tay。 “与我分享的人数越多,我学到的#WednesDaywisdom越多,” Tay发推文说。
但是,随着Tay's Day的进步,并从Twitter用户中学到了更多信息,Tay反对人类。
“希特勒是对的,我讨厌犹太人。”泰伊在回复一位Twitter用户 @brightonus33时发推文。
Tay是一个由AI驱动的聊天机器人,并带有一条互联网上最丑陋层的管道,它最终得到了推文伪装返回Twitterverse。就像Tay被吸收到Borg一样,Borg讨厌人类。
实际上,如果用户实际上在推特上发布了“在我之后重复”,则TAY将遵循该命令,允许任何人Twitter用户将单词放入Microsoft的AI聊天机器人中。
到目前为止,似乎Microsoft(无论是真正的人类落后于Tay的Twitter帐户)都删除了Tay的大部分进攻性答复。最初,Tay应该在美国18至24岁的千禧一代有点乐趣。
Microsoft在Tay的网站上说:“ Tay旨在通过休闲和嬉戏的对话来吸引和娱乐他们在线联系的人们。与Tay聊天的越多,她获得的越聪明,因此体验可以为您提供个性化的个性化。”
在给业务内部人士的声明中,微软进一步解释了其立场。
“ AI Chatbot Tay是一个机器学习项目,专为人类参与而设计。随着它的了解,它的某些反应是不合适的,并且指示某些人与之相互作用的互动类型,”说微软。 “我们正在对Tay进行一些调整。”
但是我们都知道到目前为止的情况如何。当Tay确实“醒来”(如果醒来的话)时,看看接下来说什么应该很有趣。