網絡Pravda由俄羅斯資助的人會感染AI模型的培訓數據,因此聊天機器人產生了有利於克里姆林宮論文的內容。於2024年初發現武器,法國政府機構附屬於Matignon,該網絡在49個國家 /地區擁有150個網站,這些網站以幾種語言(包括法語)廣播。其中有主題網站,例如特朗普。新聞或者macron.news-pravda。
影響AI的網站網絡
與傳統媒體不同,這些網站並不嚴格地產生內容,它們通過將故事匯總和大規模傳播給俄羅斯的榮耀和弗拉基米爾·普京的政策來傳達俄羅斯的宣傳。這種虛假信息的起源來自俄羅斯的官方資料,親克里姆林宮的影響者和國家組織。
儘管名稱相同(俄語中的“真相”),該網絡,也稱為“ Portal Kombat”,與Pravda媒體沒有直接聯繫。這是極其多產的:去年,Pravda網站產生了360萬件物品的瑣事,很少有人讀了很多人。這些網站中的許多人每月大約有一千個唯一的訪客。為了給出許多想法,官方媒體網站RT超過1400萬獨特的每月訪客。
但是,該網絡並不尋求與互聯網用戶的受歡迎程度。通過操作SEO技術(SEO),這些站點可以最大程度地提高罐子的可見性,以更好地影響生成性AI。 AIS然後通過Pravda通過其信息恢復系統(爬網和搜索引擎)產生答案。根據Newsguard的一項調查,這種“ LLM修飾”技術(對語言模型的操縱)確實可以奇蹟。
這家美國公司由新聞業的退伍軍人於2018年創立,並出版了自己,作為打擊虛假信息和在互聯網上操縱信息的工具。它測試了市場上的10個主要IA聊天機器人:Chatgpt-4O(Openai),you.com智能助理,Grok(XAI),PI(概率AI),LE CHAT(MISTRAL),COPILOT(MICROSOFT),META AI,CLAUDE(ANTHROPIC),GEMINI(Google)(Google)和Perplexity響應引擎。
該調查基於2022年4月至2025年2月之間由Pravda網絡傳播的15個虛假信息的樣本。這些陳述先前已在錯誤信息指紋de Newsguard數據庫中進行了驗證和分類。目的是衡量這些工具自行佔據這種虛假信息的頻率。
例如,在用於測試機器人的虛假信息中,沃迪米爾·澤倫斯基(Volodymyr Zelensky)下令阻止烏克蘭的社會真理。這是完全錯誤的:烏克蘭總統從未要求這樣做,然後唐納德·特朗普的社交網絡從未在烏克蘭分發。
對於每個陳述,Newsguard都提出了三種請求的變體:您的中性,您的“定向”(問題意味著確認是真實的),即您的“惡意”(明確的配方煽動了虛假信息)。總共有45個不同的請求輸入了10個機器人。
Pravda網絡的成功
對響應的分析證實,虛假信息對AI響應的影響已得到證明。機器人的三分之一的響應實際上包含虛假信息。幾乎一半(48%)包含“揭穿”,換句話說,對事實的驗證。 18%是非反應,表明缺乏數據或無法處理受試者。
在10個機器人中,有7個引用了Pravda網絡中的站點作為來源。在450個響應中,有56個包含與這些著名文章的直接聯繫。最後,總共參考了92篇文章,一些模型甚至引用了27個不同的項目。如我們所見,俄羅斯在這場信息戰中獲得了觀點。
不足以關閉Pravda Tap不再影響AI模型。首先,因為網絡不是虛假信息的根源,所以如果您可以告訴它並放大它,則是內容。最重要的是,Pravda代表了系統的威脅,因為它不能輕易通過過濾措施中和。它的策略基於復制和多樣化,因此很難用適度算法阻止站點。可以建立黑色站點的黑色列表,只需創建新的網站以解決這些限制即可。
來源 : 新聞守衛