内容适度是Facebook目前面临的最大问题。从共享假新闻到讨厌团体Facebook使用该平台招募新成员,在很难应用其规则的情况下均匀地应用。
为了打击仇恨言论在Facebook上共享,它雇用了由7,500个内容主持人组成的军队。问题是内容主持人不会均匀地应用规则。
更改准则
一个调查ProPublica发现,Facebook删除可恨内容的尝试尚未正常工作。这可能是由于Facebook不断变化的准则,这些准则必须在许多国家和语言中统一使用。
ProPublica收集了Facebook未能适度的内容的用户提取的内容示例。它最终将49个样本发送到Facebook。 Facebook承认,它在其中22个帖子中犯了错误。六个帖子没有被删除,因为用户将其标记不正确或作者删除了帖子。 Facebook的19篇文章为其辩护。在最后两个文章中,它断言它没有足够的信息。
早在6月,ProPublica成立Facebook的规则不能平等保护所有人。根据他们的准则,“白人”受到保护,而不是“黑人儿童”,因为年龄不是受保护的类别。调查后Facebook改变了这一点。
Facebook道歉
Facebook为他们对帖子的适度犯罪而道歉。
Facebook副总裁Justin Osofsky在一份声明中说:“我们为自己犯的错误感到抱歉。” “我们必须做得更好。”
奥索夫斯基(Osofsky)保证,Facebook将在2018年将其安全和保障团队翻一番,达到20,000。行动一名男子发布了一个现场视频,显示他谋杀了另一个男人,该公司于5月被公司拍摄。
他提到,Facebook每周都会删除约66,000个指定的仇恨言论,并补充说,可能被视为令人反感的一切都可能不被视为仇恨言论。
他说:“我们的政策允许内容可能引起争议,有时甚至令人反感,但并没有跨越仇恨言论。” “这可能包括对公众人物,宗教,专业和政治意识形态的批评。”
Facebook调节内容的问题是公司的紧迫问题。利用人们对什么是或不是令人反感的内容做出判断,这使得规则很难统一实施。调节器的数量增加一倍进攻。