“資訊運營與Facebook”。鈰關係令人驚訝的是,它的標題似乎直接來自間諜電影。然而,這篇包含炸藥的文字並非虛構。 Facebook 確認它是惡意行為者的目標,這些行為者試圖操縱公眾輿論,並首次詳細介紹了他們的方法。該文本由安全經理 Alex Stamos 及其得力助手 Jen Weedon 和 William Nuland 簽署。
Facebook被指控放大假新聞
顯然,這份報告的發表與美國大選後和法國總統競選期間的背景有很大關係。這些截止日期放大了一些不新鮮的現象,例如假新聞的傳播。
但該社交網路從未如此受到關注,像其同行一樣被指責沒有採取任何措施來防止這些濫用行為。我們特別記得提姆伯恩斯李的咆哮去年三月,敦促網路巨頭尋找一種過濾內容的設備。現場BuzzFeed還證明了假新聞更受歡迎比美國投票前三個月的真實情況還要高。
讓我們回到資訊營運。根據 Facebook 的說法,它們可以由政府和非國家行為者進行,以影響國家或外國的政治情緒,以獲得“戰略或地緣政治結果”。
這是歷史上第一次領導者有機會透過 Facebook 等新媒體接觸全球受眾。觀眾將真誠地轉發由有偏見的來源發起的有機活動。
自 4 月 13 日以來,法國刪除了 30,000 個虛假帳戶
如果說 Facebook 充分考慮了美國選舉期間發生的操縱企圖的規模和影響,那麼法國總統選舉的情況並非如此。他透露,從4月13日,也就是第一輪投票前四天起,他對我國3萬多個虛假帳戶採取了措施!
該社群網路拒絕使用「假新聞」一詞,認為它太模糊了。因此,他發展了自己的術語。除了資訊作戰,他還保留了幾個概念:
- 「假新聞」是指聲稱真實但故意歪曲事實以欺騙或吸引人們的虛假文章。
- 「假擴大機」:由假帳號協調的行動,目的是操縱政治討論
- 「假訊息」:被操縱或不準確但總是故意傳播的訊息或內容
「假訊息」的背後是人類,而不是機器人
Facebook 區分了其平台受害的三種行為:
- 有針對性的資料收集:資訊偵察、針對組織或個人的網路操作、網路釣魚或帳戶接管以及資料竊取。
- 創造誤導性內容:產生垃圾郵件、迷因和故事,創建虛假帳戶和角色。
- 放大:虛假帳戶傳播迷因和內容,這是一種人造草皮技術,旨在給人留下行為或自發性大眾運動的錯誤印象
與人們可能認為的相反,這是本報告的主要教訓之一,虛假內容不是由機器人傳播的。“大多數資訊操作不是由自動化流程驅動的,而是由專門負責操作虛假帳戶的協調一致的個人驅動的”,描述社交網路。這表示組織水準很高。
這些方法已經被其他團體用於財務目的。但資訊作戰的對抗要複雜得多。「這些活動的贊助商不受垃圾郵件發送者或點擊詐欺者等經濟現實的限制,Facebook 安全專家觀察到。確實很難透過摸錢包來勸阻他們。
俄羅斯人在美國大選期間採取了行動
Facebook表示,它將在選舉等關鍵時刻部署更多員工,以幫助身份被盜的人並保護帳戶的完整性。透過警報通知已成為目標的個人,提出個人化建議,並主動與某些潛在目標和政府機構進行直接溝通。
新工具的開發也是作戰計畫的一部分。該社交網路正在努力自動發現虛假帳戶,現在正在嘗試檢測手動編排。因此,借助機器學習,Facebook 可以識別用戶活動中的統計異常或重複模式,例如相同內容重複的訊息過多或創建的新內容過多。該系統每天都會更新。
該社交網路聲稱無法識別誰是這種虐待行為的幕後黑手。然而,他一路上以迂迴的形式插入了一個金塊:“我們的數據與美國情報總監 2017 年 1 月 6 日報告中的結論並不矛盾。”這份報告說了什麼?俄羅斯政府試圖支持唐納德·川普戰勝希拉里·克林頓。那麼在法國呢?誰在社群網路上創造了 30,000 多個虛假帳戶?不幸的是,Facebook 沒有回答這個問題。