喬·拜登(Joe Biden)離開美國總統大選之後,花了不到十天的時間才能深入替代他在社交媒體上浮出水面的替代者。但是,視頻,其中卡馬拉·哈里斯(Kamala Harris)的深擊音頻聽到了貶低她自己的經驗和資格的講話行,如果沒有該平台的用戶沒有作為“模仿”,可能不會引起轟動。
埃隆·馬斯克(Elon Musk)關於政治深層鬥爭的轉發 - 違反了Twitter對偽造內容的政策,馬斯克可能會和這個名字一起拋棄,這只是有望成為飛速飛漲的最新提升深擊的流行在我們的在線生活中。隨著財務欺詐的增加和對兒童的性剝削,事件是造成的浪潮的一部分微軟呼籲美國國會通過一個新的法律框架對AI生成的深層策略施加強有力的法規。
孩子們,老年人遭受AI Deepfake欺詐的傷害
該公司在歸功於微軟副主席和總統布拉德·史密斯(Brad Smith)的語言中斷言“AI生成的深擊是現實的,幾乎任何人都可以製造的,並且越來越多地用於欺詐,虐待和操縱,尤其是針對兒童和老年人。 ”
“美國可以做的最重要的事情之一就是通過全面Deepfake欺詐法規,以防止網絡犯罪分子使用這項技術從日常美國人那裡竊取。簡而言之,我們需要新的法律來幫助阻止壞行為者對欺詐前輩或虐待兒童使用深層。 ”
作為對這項工作的貢獻,微軟已發布了一份42頁的報告,標題為“保護公眾免受虐待AI生成的內容。”白皮書旨在“鼓勵對政策制定者,民間社會領導者和技術行業的虐待AI生成的內容進行更快的行動”。它說,公共部門和私營部門都必鬚髮揮作用,並且“技術公司必須在其AI研發過程中優先考慮道德考慮”。
史密斯說,該報告做了三件事。它說明並分析了虐待AI生成的內容引起的危害。它解釋了Microsoft解決AI生成的深擊問題的方法。它為政策建議立法者努力規範AI。
Microsoft正在推動STEM的政策措施部分。技術協議在2024年選舉中對抗AI的欺騙性使用,幾家主要科技公司在2月的慕尼黑安全會議上啟動。優先事項正在解決深層創造,檢測和響應深擊,並促進透明度和彈性。
Deepfake欺詐法規,在政策解決方案中標記虛假內容
該報告概述了三個想法,即“可能會對反對欺騙性和虐待AI生成的內容產生巨大影響”。
聯邦“ Deepfake欺詐法規”將為包括州檢察長在內的執法人員提供“一個獨立的法律框架,以起訴AI生成的欺詐和騙局當它們在速度和復雜性上增殖。 ”
“儘管當前有現有的聯邦欺詐法規可以進行修訂和加強以解決合成內容”報告說,“解決此問題的最全面方法是製定新的聯邦合成內容欺詐法規,以涵蓋民事和刑事條款。該法規還可以規定刑事處罰,民事扣押和沒收,以及禁令和其他公平的救濟。 ”
Microsoft指出的是“有用的,儘管是不完美的模板”,以便國會在起草法律時考慮:2009呼叫者ID中的真相,這使得“導致任何呼叫者身份服務在故意傳遞誤導或不准確的呼叫者身份信息以欺騙,造成傷害或錯誤地獲得任何有價值的東西的情況下,有意。”
除了法規之外,使用“最先進的出處工具”的合成內容標籤應該是AI系統開發人員的要求。 “這對於建立對信息生態系統的信任至關重要,並將幫助公眾更好地了解內容是由AI生成還是操縱。”
最後,“我們應該確保對兒童性剝削和虐待以及非自願親密圖像進行更新以包括在內的聯邦和州法律以包括AI生成的內容。 ”
微軟還為其技術巨人提供了一條信息,他們可能太渴望了AI創新損害公共安全。它說:“頒布這些建議中的任何一個都將從根本上需要進行整體社會方法。” “雖然必須在餐桌旁佔有一席之地,但必須以謙卑和對行動的偏見來做到這一點。”
DeepFake一詞是在2017年創造的,這是前總統奧巴馬的假唇部同步視頻。因此,儘管該技術通常被構建為一種新興的威脅,但它已經有七年的發展當前的複雜形式。這是一個主流問題,Jumio的最新研究表明,我們四分之三的成年人擔心政治深擊對2024年大選的影響。
微軟的布拉德·史密斯(Brad Smith)說:“危險不是我們會走得太快,而是我們的行動太慢或根本不會。”
白宮行政命令在AI上以新的承諾成熟
然而,政府一級有運動。 FCC已經禁止使用Robocalls聲音深擊。拜登·哈里斯(Biden-Harris)政府最近在總統的行政命令下宣布了對AI的新行動,並承諾有一個非常大的名字來幫助確保AI開發不會超越公民責任。
去年發布的AI行政命令包括15個領先的美國AI公司的承諾。白宮的發布說:“蘋果已經簽署了自願承諾,進一步鞏固了這些承諾作為負責AI創新的基石。 ”
根據該版本,拜登的命令採取的行動是按計劃進行的。該公告包括一張綜合表,列出了各種政府對AI的行動,範圍從招聘計劃到評估和發布報告。
CDT希望Genai Devs建立在防禦欺詐的保護措施中
非營利組織也在投入。民主技術中心(CDT)發表了一份關於“針對生成AI開發人員的選舉完整性建議。 ”它要求採取使用政策,“禁止生成現實的圖像,視頻和音頻描繪政治人物或政治和選舉事件”,以及相關的政治用途。
執行是關鍵,透明度也是如此。開發商必須“不僅在活躍的選舉期間,不僅在活躍的選舉期間,主動執行有關選舉的使用政策”和“充分的資源和員工政策和執法團隊”。
報告作者在引言中寫道,CDT的民主和選舉高級政策分析師Tim Harper指出,2024年是AI是民主選舉中持續關注的第一年。但這不是最後一個。問題人工智能影響選舉隨著技術的不斷發展,可能會增加,從而實現越來越現實的虛假內容。當前針對深擊的動員可能是虛擬的永远战爭。
哈珀寫道:“儘管我們已經過去了這個選舉年的一半,AI開發商必須快速制定採用各種槓桿的選舉誠信計劃,包括政策,產品和執法,以保護今年及以後的民主選舉。”