因允許擴散而受到批評假新聞在美國總統競選期間,或沒有足夠快地干預某些用戶的過度直播行為,Facebook 正試圖更有效地打擊違反其規則的內容。本週他就職一種新的報告評估其節制行動。該文件僅關注用戶螢幕上出現的帖子,因此之前未被自動檢測系統檢測到。考慮的時期是從 2018 年 10 月到 3 月。鑑於該平台擁有 20 億活躍用戶,並且某些西方國家的大多數人口都與該平台有聯繫,這並不奇怪。
4% 的活躍用戶連結到虛假帳戶
第一個讓你無語的評估是刪除的虛假帳戶數量,2018 年1 月至3 月刪除的虛假帳戶數量為5.83 億,而2017 年10 月至12 月為6.94 億。 Facebook 估計每月活躍用戶中有3% 至4% 是真實帳戶的虛假帳戶。有些是由個人手動創建的,但更多時候它們是由機器人或腳本批量生產的。它們的演變是週期性的,並受到網路攻擊浪潮的強烈影響。 Facebook 強調,必須盡快偵測它們,因為它們往往是其他違規行為(例如垃圾郵件或詐騙嘗試)的起點。該平台似乎正在有效地打擊這種現象,因為它在 2018 年第一季成功檢測到了用戶報告的所有虛假帳戶的 98.5%。
垃圾郵件通常與虛假帳號相關,是 Facebook 面臨的另一項難題。誰將其定義為任何活動“自動化(例如,由機器人或腳本發布)或協調(使用多個帳戶分發和宣傳誤導性內容)”,我們可以在報告中看到。 “這包括商業垃圾郵件、虛假廣告、詐欺、惡意連結和假冒產品的促銷。,指定社群媒體巨頭。這又是一個盡快介入以防止垃圾郵件傳播的問題。 Facebook 表示,1 月至 3 月它幹預了 8.37 億則內容,而 10 月至 12 月幹預了 7.27 億則內容。在這一領域,它近乎卓越,因為它以在報告之前檢測到 99.7% 的垃圾郵件而自豪。
恐怖主義宣傳難以量化
然而,Facebook 也存在著難以量化的問題。首先,它涉及恐怖主義宣傳。他只是承認無法可靠地評估相關內容的數量,但強調與大量暴力或性內容相比,這些內容的比例顯得極低。 Facebook 不無自滿地提出了這樣一個論點,即它的自動審核效果非常好,以至於大多數宣揚恐怖主義的內容在被看到之前就會被刪除。不過,他承認第一季他介入了 190 萬則線上內容,並為在報道之前發現了 99.5% 的內容而感到自豪。
Facebook 努力控制仇恨內容
它的弱點是仇恨言論。因為它們太難被發現了。問題:理解上下文。而就目前而言,人工智慧並沒有太大幫助。這就解釋了為什麼該類別的審核表現最差,在年初報告用戶之前僅檢測到 38% 的內容。
另一個困難是裸體和性的表現。我們知道古斯塔夫·庫爾貝畫作的著名故事世界的起源,被 Facebook 多次審查。這個社群網路現在可能承認某些裸體藝術表現形式,但在這一點上仍然極為謹慎。他估計第一季他製作了 2100 萬條內容。
最後,還有 Facebook 所說的“圖形暴力”,即任何內容“美化暴力或慶祝他人的痛苦或羞辱”。這次,遇到它的機率要高得多,因為在螢幕上看到的 10,000 條內容中,有 22 到 27 條被歸類為「暴力」。這一百分比增加,部分原因是 Facebook 改進了其檢測技術,但該平台也承認出現了更多受影響內容。
Facebook 內容政策總監 Monica Bickert 告訴該報,請訪問巴黎舉辦“內容高峰會”世界由 7,500 名法語版主組成的團隊每天 24 小時輪流監控我們語言的內容。