根据与石英交谈的消息人士的说法,Facebook已将负责编写故事描述的编辑团队削减。
通过第三方雇用的15至18个承包商团队在下午4点被告知终止,然后要求在同一天下午5点之前离开该场所。
据说编辑团队的一些成员已经致力于一年半的趋势主题。
趋势主题:人与机器智能
随着社论团队的解雇,Facebook现在将主要依靠计算机算法审查正在引起社交网络嗡嗡声的主题。这只是Facebook部署机器智能以了解网民使用该平台的众多方式之一。
工程师将代替作家团队监督算法产生的结果并确定这些结果是否具有新闻价值。
Facebook长期以来一直坚持认为其趋势主题部分是自动化的。
“有资格出现在产品中的主题是由我们的算法而不是人浮出水面的,” Facebook的全球运营副总裁Justin Osofsky,解释了5月,同时认识到人类编辑团队在确保结果相关且高质量方面“发挥重要作用”。
然而,前趋势的主题工作人员指控当时人类编辑和新闻策展人被要求手动选择主题,丢弃被认为是保守派或违背其个人信仰的故事。
“ Facebook是所有想法的平台”
为了回应5月爆发的政治偏见的指控,Facebook发誓限制其算法的依赖性在大约1,000个新闻媒体上,访问了“趋势主题”部分。
现在,随着社交媒体公司继续更新服务,该网站将删除该主题预览的摘要,并且只会显示在谈论它的人数,如下图所示。
像以前一样,趋势主题将根据提及的数量以及短期内提及的急剧增加来确定要出现的故事。
通过终止整个人类编辑和新闻策展人的团队,并介绍了这些更改,Facebook认为它只需要做出“关于主题的个人决定更少”。
该公司声称:“ Facebook是所有想法的平台,我们致力于维持趋势,以此作为人们访问有关各种主题的广度和评论的一种方式。”
Facebook真的可以消除其人类偏见的系统吗?
问题是:Facebook如何有效地剥离其人类偏见系统?
从新闻提要到有针对性的广告再到趋势主题,Facebook越来越多地开发其机器智能系统在不依赖人类干预的情况下,可以更好地了解其用户和受众群体。
但是,机器学习通常还取决于人类伴侣的线索,就像社会信号一样。这些线索可以从人类行为的模式中收集。
这位前编辑团队(以他们自己的判断来检查故事)可能对Facebook开发出一种独特的算法至关重要,并以新闻的鼻子进行鼻子。
一学习[PDF]表明,在机器智能上,偏见(在人类语言上都有明显的偏见。
普林斯顿大学和巴斯大学的研究人员报告说:“类似人类的语义偏见是由于标准机器学习到普通语言而导致的 - 每天都会接触过同样的语言。”
鉴于这些偏见,即使是智能技术也可以用来“永久化”偏见 - 与传统新闻机构具有自己的偏见一样。
随着更多的人转向社交媒体作为新闻来源,现在比以往任何时候都重要的是,正确的公式正确。