Coimisiún na Meán(相當於愛爾蘭的 Arcom)認為 Facebook 的母公司 Meta 在打擊恐怖主義內容方面做得不夠。 Facebook 現在有三個月的時間來展示其資格。
Facebook暴露於的恐怖分子內容» 並且必須採取措施予以補救:這是 Coimisiún na Mean 的結論,該機構相當於愛爾蘭的 Arcom,該機構在某些情況下代表歐盟行事。在一個在其網站上發布的新聞稿12 月 16 日星期一,愛爾蘭當局認為 Meta,Facebook的母公司,在打擊其社交網路上的恐怖內容方面做得不夠。
控制在愛爾蘭建立的(眾多)平台的歐洲當局在歐洲監管框架內採取行動內容 恐怖分子在線的。該文本要求社交網路採取措施,防止在線傳播恐怖主義內容:例如,社交網路必須刪除其關於“煽動、教唆或助長恐怖犯罪、為此類犯罪提供指示或煽動人員參與恐怖組織的直播」。這同樣適用於與爆炸物的製造或使用有關的任何解釋。
自 12 月 16 日星期一以來,Facebook 已加入必須採取具體措施打擊恐怖主義內容傳播的公司名單,一個月前,針對另一個 Meta 社群網路 Instagram 也做出了類似決定。在過去 12 個月內至少收到兩次此類內容刪除令的平台就屬於此類,這裡的 Meta 就是這種情況。
Facebook必須採取具體措施
具體來說,這會為馬克·祖克柏的團隊帶來什麼後果?他現在必須「採取具體措施防止其服務被用於傳播恐怖主義內容」。馬克·祖克柏的團隊也有義務在收到決定後三個月內向愛爾蘭當局發送報告,詳細說明已採取的措施。測量結果必須是“有效、有針對性、適度且尊重使用者的基本權利», 召回權威。
雖然目前尚不清楚 Facebook 上發現了哪些恐怖內容並通知了監管機構,但 Facebook 將不得不採取新措施來應對愛爾蘭當局。這可能會產生新的一般使用條件,禁止傳播恐怖主義內容。三個月後,當局將對所採取的措施進行評估。如果認為其不足,可能會導致高達全球營業額 4% 的巨額罰款。該當局在新聞稿中補充說,該平台的用戶可以向該平台或其他地方當局舉報恐怖分子內容。
Facebook 估計,「99% 以上的此類暴力內容甚至在向我們報告之前就已被刪除”
請求者TechCrunch12 月 16 日星期一,Meta 估計“業界針對危險組織和個人最全面的方法之一」。這家美國公司聲稱上季“在向我們報告之前就發現並刪除了超過 99% 的此類暴力內容»。
一個月前,愛爾蘭當局又將目標瞄準了其他公司:除了 Instagram 之外,TikTok 和 X 也被列入揭露恐怖內容的平台名單。愛爾蘭 Arcom 負責控制此類內容的分發,它與歐盟委員會合作,而歐盟委員會則根據《DSA,歐洲數位服務法規。