Coimisiún na Meán(相当于爱尔兰的 Arcom)认为 Facebook 的母公司 Meta 在打击恐怖主义内容方面做得不够。 Facebook 现在有三个月的时间来展示其资质。
Facebook暴露于的恐怖分子内容» 并且必须采取措施予以补救:这是 Coimisiún na Mean 的结论,该机构相当于爱尔兰的 Arcom,该机构在某些情况下代表欧盟行事。在一个在其网站上发布的新闻稿12 月 16 日星期一,爱尔兰当局认为 Meta,Facebook的母公司,在打击其社交网络上的恐怖内容方面做得不够。
控制在爱尔兰建立的(众多)平台的欧洲当局在欧洲监管框架内采取行动内容 恐怖分子在线的。该文本要求社交网络采取措施,防止在线传播恐怖主义内容:例如,社交网络必须删除其关于“煽动、教唆或助长恐怖犯罪、为此类犯罪提供指示或煽动人员参与恐怖组织的直播”。这同样适用于与爆炸物的制造或使用有关的任何解释。
自 12 月 16 日星期一以来,Facebook 已加入必须采取具体措施打击恐怖主义内容传播的公司名单,一个月前,针对另一个 Meta 社交网络 Instagram 也做出了类似决定。在过去 12 个月内至少收到两次此类内容删除令的平台就属于此类,这里的 Meta 就是这种情况。
Facebook必须采取具体措施
具体来说,这会给马克·扎克伯格的团队带来什么后果?他现在必须“采取具体措施防止其服务被用于传播恐怖主义内容”。马克·扎克伯格的团队还有义务在收到决定后三个月内向爱尔兰当局发送报告,详细说明已采取的措施。测量结果必须是“有效、有针对性、适度并尊重用户的基本权利», 召回权威。
虽然目前尚不清楚 Facebook 上发现了哪些恐怖内容并通知了监管机构,但 Facebook 将不得不采取新措施来应对爱尔兰当局。这可能会产生新的一般使用条件,禁止传播恐怖主义内容。三个月后,当局将对所采取的措施进行评估。如果认为其不足,可能会导致高达全球营业额 4% 的巨额罚款。该当局在新闻稿中补充说,该平台的用户可以向该平台或其他地方当局举报恐怖分子内容。
Facebook 估计,“99% 以上的此类暴力内容甚至在向我们报告之前就已被删除”
请求者TechCrunch12 月 16 日星期一,Meta 估计“业界针对危险组织和个人最全面的方法之一”。这家美国公司声称上季度“在向我们报告之前就发现并删除了超过 99% 的此类暴力内容»。
一个月前,爱尔兰当局又将目标瞄准了其他公司:除了 Instagram 之外,TikTok 和 X 也被列入暴露恐怖内容的平台名单。爱尔兰 Arcom 负责控制此类内容的分发,它与欧盟委员会合作,而欧盟委员会则根据《DSA,欧洲数字服务法规。