Facebook刚刚宣布要改善其视频过滤工作。这是因为该公司对几份报告的反应,这些报告揭示了在网站上持续数小时的令人不安的内容,例如自杀视频。
另外3,000人将监视Facebook报告
Facebook现在已经确认,它将在其运营团队中增加3,000人,以筛选在网站上发布的视频,目的是在发现有害内容时迅速响应。
这将增加Facebook目前以这种身份工作的4,500人的人数。仅仅看着这些数字,即将到来的一系列添加效果令人印象深刻,因为它最终可能会导致对社交网络上共享的不适当内容的充分监督和监视。但是一些关键的事情尚不清楚:这些新朋友是全职员工还是承包商?他们将如何筛选在网站上发布的所有视频?
Facebook接近20亿用户。它每周收到数百万个报告。筛选所有这些是一个艰巨的任务,但首席执行官马克·扎克伯格(Mark Zuckerberg)充满希望,说明在Facebook帖子中:
“如果我们要建立一个安全的社区,我们需要迅速做出回应。我们正在努力使这些视频更容易举报,以便我们可以更快地采取正确的行动 - 无论是在某人需要帮助还是裁员时,这是否会迅速做出响应。”
与社区团体和执法部门合作
扎克伯格说,这些审阅者将帮助该网站删除违反其政策的内容。此外,如果有人需要帮助,尤其是在即将伤害自己的时候,或者他们面临别人的危险,Facebook将继续与当地社区团体和执法部门合作。
Facebook正在做出明智的步骤。添加更多负责监视的工人使其更加了解潜在有害内容,这是它想要在网站上摆脱困境的东西。该公司的算法越来越好,进而使人们提交报告的问题更容易出现。 3月,该公司退出自杀预防工具。不久之后,它采取了措施来防止复仇色情。
Facebook的角色变得越来越难以识别
Facebook是世界上最大的社交网络,一个平台,人们可以在世界各地立即与其他人进行交流,互动和互动。但是这种可访问性是有代价的:并不是网站上的每个人都有良性的意图。有些人想造成伤害,他们希望每个人都看到它。因此,Facebook在这个高度关键且有争议的地方,以确定的方式翻译其角色。
是一个社交网络,还是新闻网站?如果您在Facebook上看到新闻项目,这是否意味着应该始终认为它是准确的?它在人类交流,信息传播和媒体消费中有什么作用?我们如何测量,确定并最终努力来完善这些经验?
这些是高个子的问题,甚至扎克伯格本人也可能无法回答其中的一半。但这是我们也知道Facebook的一件好事没有想要大多数用户不想要的东西:假新闻,不适当的内容,复仇色情,记录自杀未遂以及任何使服务更有害的事物。