人工智慧(AI)仍然是一項傑出的技術,但是一種新的技術Google- 撰寫了研究主張AI生成的圖像現在正在迅速發展,作為錯誤信息的來源。
AI技術已經引起了新形式的現實曲折錯誤信息,從虛假的戰爭圖像到名人騙局。這項研究是由Google,Duke University和幾個事實檢查和媒體團體的研究人員合著的,上周作為預印本發布。
它涉及一個可追溯到1995年的錯誤信息的大量新數據集,該數據集經過Snopes等網站驗證。根據研究人員的說法,數據表明,AI生成的照片迅速獲得了知名度,幾乎與更傳統的操縱形式一樣重要。
這項研究最初是由404個媒體在被偽造的新聞通訊發現後報告的,他清楚地表明,直到去年年初,研究人員說,AI生成的圖像“總體上佔內容操作的一定比例”。

AI炒作的波等於AI產生的錯誤信息
去年,OpenAI,Microsoft和Google等主要科技公司發布了新的AI圖像生成工具。根據該報告,AI產生的虛假信息現在幾乎與文本和其他內容修改一樣普遍。
根據研究人員的說法,事實檢查AI圖片搜索的增加與AI炒作的一般激增相似,這可能導致網站更多地專注於技術。
這項研究表明,最近幾個月對事實檢查AI的放緩,但傳統的文本和視覺操縱有所增加。根據該研究還研究了其他媒體,視頻騙局現在佔所有涉及媒體的調查索賠的60%。
麻煩的AI深擊
AI深擊現在也是AI產生錯誤信息的重要原因。網絡安全專家最近警告說,這些騙局變得越來越普遍和復雜。
Great Hill Partners網絡安全專家Jason Hogg指出,高級管理人員的深擊可能會傳播錯誤信息,影響股票價格,破壞人們的聲譽並分發有害內容。
霍格(Hogg)認為,前聯邦調查局(FBI)特工霍格(Hogg)使用社交媒體和其他來源的數字數據生成的AI可能會產生Deepfakes。
霍格認為,由於有效的網絡犯罪需要進行徹底的研究來構建系統,程序和控制以打擊新興技術,因此更大的挑戰將繼續加速。
網絡安全專家通過改進員工培訓,頻繁的網絡安全測試以及實施多層交易批准流程來建議加強防禦能力,以防止AI驅動的威脅。
據報導,一項令人不安的事件涉及一名總部位於香港的金融工作者,欺騙了騙子約2500萬美元。騙子欺騙了員工通過使用Deepfake技術在視頻對話中擔任同事來進行轉會。
參與香港案件的英國工程公司Arup承認了這一問題,但由於詢問仍在進行中,但沒有透露更多信息。
Netskope首席信息和安全官戴維·費爾曼(David Fairman)聲稱,由於AI技術廣泛可用的AI技術,黑客現在能夠執行具有較低技術專業知識的複雜計劃。
