關於生成的警告人工智慧僅在即將舉行的選舉中繼續據說由國土安全部最近的聯邦公告看到。
國土安全部開發的研究並分發給了全國執法夥伴,這表明當地和外國參與者可以使用技術在2024年選舉週期之前構成重大障礙。
聯邦公告是很少發生的通訊,使執法夥伴警告特定的威脅和關注點。
根據警告,AI能力可以幫助破壞2024年美國選舉週期。預計在此選舉週期中,一系列威脅行為者試圖影響和播種動亂。

生成的AI技術可能會通過加劇新興事件,干擾選舉程序或針對選舉基礎設施來使外國和國內威脅行為者更多的機會在2024年選舉週期中進行干預。
在上週的參議院情報委員會聽證會上,國家情報局局長艾維利·海恩斯(Avril Haines)還警告國會有關生成性AI的危險,並指出該技術可以產生可隱藏的逼真的“深層”。
由於在線駁斥或反駁誤導性信息可能需要一些時間,因此與公告中所述,與選舉相關的AI生成的媒體的時機可能與內容本身一樣重要。
該報告還提到了仍然存在於國外的威脅,並指出,在2023年11月,AI生成的視頻敦促在南印度南部的選民在選舉日支持某個候選人,這使官員們幾乎沒有時間駁斥該視頻。
AI巨人反對AI虛假信息
微軟和Openai有最近建立了200萬美元的基金,以應對Genai構成的威脅,以應對深層和欺詐性的AI內容。
對AI產生的錯誤信息的擔憂已經達到了臨界群眾,因為一個空前的20億選民準備在本屆選舉這一年在50個不同國家進行投票。錯誤信息專門針對脆弱的社區。
隨著Generative AI技術的出現,例如Chatgpt等聊天機器人,可用於創建深擊的工具的數量大大增加了。這些開源資源可用於製作偽造的照片,音頻剪輯和公職人員的電影。
已經提供了一種開源的深擊檢測工具,可以幫助學者斑點欺詐性欺詐性內容由DALL-E Image Generator生成。最近建立的“社會彈性基金”對於促進道德AI使用的原因至關重要。
微軟技術和公司責任公司公司副總裁Teresa Hutson強調了社會韌性基金在與AI相關的社區計劃中的價值。為了應對AI錯誤信息,她強調了Microsoft和Openai致力於與其他志趣相投的企業合作。
人工智能欺騙有效
儘管最新的AI技術的質量非常出色,但大多數Deepfakes很快就會失去信譽,尤其是來自中國和俄羅斯打算全球影響力運動的人。
消息人士稱,專家們已經觀察到,不可能改變大多數人的政治觀點,而不管其圖像,視頻或音頻樣本的說服力如何。
在巴基斯坦和印度尼西亞的最近選舉中,生成的AI已被廣泛使用,但沒有證據表明它不公平地贊成任何特定的候選人。社交媒體每天發布大量內容,使AI驅動的騙局(甚至是現實的騙局)很難獲得牽引力。
