“信息运营和Facebook”。铈关系令人惊讶的是,它的标题似乎直接来自间谍电影。然而,这篇包含炸药的文本并非虚构。 Facebook 确认它是恶意行为者的目标,这些行为者试图操纵公众舆论,并首次详细介绍了他们的方法。该文本由安全经理 Alex Stamos 及其得力助手 Jen Weedon 和 William Nuland 签署。
Facebook被指控放大假新闻
显然,这份报告的发表与美国大选后和法国总统竞选期间的背景有很大关系。这些截止日期放大了一些并不新鲜的现象,例如假新闻的传播。
但该社交网络从未如此受到关注,像其同行一样被指责没有采取任何措施来防止这些滥用行为。我们特别记得蒂姆·伯恩斯·李的咆哮去年三月,敦促网络巨头寻找一种过滤内容的设备。现场BuzzFeed还证明了假新闻更受欢迎比美国投票前三个月的真实情况要高。
让我们回到信息运营。根据 Facebook 的说法,它们可以由政府和非国家行为者进行,以影响国家或外国的政治情绪,以获得“战略或地缘政治结果”。
这是历史上第一次领导人有机会通过 Facebook 等新媒体接触全球受众。观众将真诚地转发由有偏见的来源发起的有机活动。
自 4 月 13 日以来,法国删除了 30,000 个虚假账户
如果说 Facebook 充分考虑了美国选举期间发生的操纵企图的规模和影响,那么法国总统选举的情况却并非如此。他透露,从4月13日,即第一轮投票前四天起,他对我国3万多个虚假账户采取了措施!
该社交网络拒绝使用“假新闻”一词,认为它太模糊了。因此,他发展了自己的术语。除了信息作战,他还保留了几个概念:
- “虚假新闻”是指声称真实但故意歪曲事实以欺骗或吸引人们的虚假文章。
- “虚假放大器”:由虚假账户协调的行动,目的是操纵政治讨论
- “虚假信息”:被操纵或不准确但总是故意传播的信息或内容
“虚假信息”的背后是人类,而不是机器人
Facebook 区分了其平台受害的三种行为:
- 有针对性的数据收集:信息侦察、针对组织或个人的网络操作、网络钓鱼或帐户接管以及数据盗窃。
- 创建误导性内容:生成垃圾邮件、迷因和故事,创建虚假帐户和角色。
- 放大:虚假账户传播模因和内容,这是一种人造草皮技术,旨在给人留下行为或自发大众运动的错误印象
与人们可能认为的相反,这是本报告的主要教训之一,虚假内容不是由机器人传播的。“大多数信息操作不是由自动化流程驱动的,而是由专门负责操作虚假账户的协调一致的个人驱动的”,描述社交网络。这表明组织水平很高。
这些方法已经被其他团体用于财务目的。但信息作战的对抗要复杂得多。“这些活动的赞助商不受垃圾邮件发送者或点击欺诈者等经济现实的限制,Facebook 安全专家观察到。确实很难通过摸钱包来劝阻他们。
俄罗斯人在美国大选期间采取了行动
Facebook表示,它会在选举等关键时刻部署更多员工,以帮助身份被盗的人并保护账户的完整性。通过警报通知已成为目标的个人,提出个性化建议,并主动与某些潜在目标和政府机构进行直接沟通。
新工具的开发也是作战计划的一部分。该社交网络正在努力自动发现虚假帐户,现在正在尝试检测手动编排。因此,借助机器学习,Facebook 可以识别用户活动中的统计异常或重复模式,例如相同内容重复的消息过多或创建的新内容过多。该系统每天都会更新。
该社交网络声称无法识别谁是这种虐待行为的幕后黑手。然而,他一路上以迂回的形式插入了一个金块:“我们的数据与美国情报总监 2017 年 1 月 6 日报告中的结论并不矛盾。”这份报告说了什么?俄罗斯政府试图支持唐纳德·特朗普战胜希拉里·克林顿。那么在法国呢?谁在社交网络上创建了 30,000 多个虚假帐户?不幸的是,Facebook 没有回答这个问题。