起初,YouTube算法将国际象棋讨论视为“种族主义者”,并将其标记为惩罚,这可能令人难以置信。对于国际象棋YouTuber,他因涉嫌敏感的问题而被视频流公司阻止。
YouTube AI可能会错误地将国际象棋聊天视为“种族主义者”
该事件发生在2020年6月,人们完全不知道为什么该算法阻止了彩带制作有关国际象棋的内容视频。至少,它可能知道该视频被标记为“有害”和“危险”内容。也许,如果是这样,它在讨论论坛上认识到了仇恨言论。
在一份报告中每日邮报,克罗地亚国际象棋爱好者安东尼奥·里奇(Antonio Radic)也以他的YouTube名称“ Agadmator”而闻名,这让他感到困惑,为什么他被禁止在视频共享平台中任何活动。卡内基梅隆大学(CMU)的两名研究人员对混乱背后的奥秘有一个疯狂的猜测。
关于此案的有趣是,YouTube甚至没有解释为什么Radic的频道立即关闭。但是,24小时后,它返回了好像什么都没有发生。为了解决令人难以置信的情景,一个项目科学家说,这是因为Radic对GM Hikaru Nakamura的病毒采访发现了引发种族主义的词。
CMU语言技术研究所的Ashique Khudabukhsh承认,他们不知道YouTube在讨论中使用了哪种工具来检测种族主义的诽谤。然而,该视频提到“黑色”和“白色”,被认为是种族主义语言。
此外,他补充说,如果该事件袭击了Radic之类的受欢迎的YouTuber,那么如果AI一直对只是为了娱乐而流媒体的人,又要做同样的事情。研究工程师Khudabukhsh和他的同伴Rupak Sarkar运行了两个AI软件,可以检测仇恨言论以测试其可行性。除了测试外,他们还发现了680,000多个评论,这些评论来自五个有关国际象棋的渠道。
此外,在近700,000条评论中,进行了1,000条样本评论的简单随机测试。他们发现,有82%的评论没有解决有关仇恨言论的任何问题。但是,他们已经看到,与白人,威胁,黑色和攻击等种族主义有关的词可能是AI突然行动的缺失的关键。
AI可以通过大型样本过滤消息的方式有不同的方法,并确保准确性也会根据示例而变化。
将过去的情况与Radic发生的情况进行比较
在一份报告中CMU新闻,Khudabukhsh以前遇到了样本问题。他的目标是在一组照片中认出“活跃的狗”和“懒狗”。大多数具有“活跃狗”的图片都包含狗跑的草。但是,该程序有时将那些带有草作为“活跃狗”样本的照片考虑,即使在某些情况下,照片中也没有发现狗。
Radic发生的事情仅仅是它的相似之处。即使主要主题是国际象棋,培训数据集也只有少数。结果,发生错误的分类。
本文归Tech Times拥有。
由Joen Coronel撰写