在新蘭德歐洲的一份報告中探討的許多風險中,最緊迫的涉及流氓州和其他不良行為者對AI Deepfakes的使用和操縱。同時,該報告警告說,西方民主國家在解決這些及其他隨之而來的AI生成和增強的信息操縱問題以及對隱私和言論自由問題的影響時面臨的固有問題和危險。
由英國國防部和外國,英聯邦和發展辦公室委託,144頁的報告,人工智能時代的戰略競爭:軍事使用人工智能的新興風險和機會說,應將AI用於信息操縱的潛力(例如高度複雜的深擊)應被視為對社會和經濟產生“高級影響”,並具有“從政治戰爭,顛覆,顛覆,選舉,犯罪,犯罪和公眾信任的一切後果。”
但是,該報告指出,對AI的任何法規也必須平衡言論自由,數據和隱私問題。
蘭德歐洲的研究人員說,他們的工作發現了“明顯的風險”,“包括AI使虛假信息的蔓延,導致社會興奮和霧化,並破壞了對事實,機構和民主政治的信任……AI-ENABLEDEABLED DEEPFAKES和DISEFFERCTIAND和DISEFFERCATION和DISNICATIONS助長了真相和政府的危險。”
此外,蘭德歐洲的研究人員非常警告說,“在AI中獲得優勢的競爭會導致有關數據保護,算法偏見,預防和隱私等問題的監管標準的競爭,”
人工智能的武器化正在推動“新形式的經濟戰”,例如使用深擊或模因工程來破壞金融市場並攻擊用於算法交易的模型。
蘭德研究警告說,民主國家可能“更容易受到信息操縱,選舉干預和其他使用人工智能的政治顛覆行為”,並指出“對隱私,公民自由和公民自由和算法偏見還可能使使用某些數據集對AI系統進行培訓,並且顯然會影響對致命的自主武器系統的政策,法律和道德限制。 ”
蘭德歐洲的研究人員承認,在專注於存在風險的人們與關註生存風險的人們之間存在著“激烈的辯論”和關注近期風險的人們之間存在著“激烈的辯論”(例如,對偏見,隱私,不平等等的關注),蘭德歐洲研究人員表示,這也“對政府的政治領域和政治領域的政治態度和政治領域的態度都構成了義務,這是對政府的政治資源和資源的質疑。這意味著對AI採用構成的直接實踐挑戰的迭代解決方案(例如,制定治理安排來減輕對安全性和偏見的關注,並強調技術的益處),同時還要注意任何可能導致全球災難性風險的長期趨勢和路徑依賴性。”
蘭德歐洲研究人員還警告說,全世界國家軍事和武裝的非國家群體的現有鎮壓系統的應用也可以“為能夠使用速度,自動化和模式認識的AI識別為進一步增強他們對信息空間的控制和對持有人的控制的速度,自動化和模式認識的迫使政權打開大門。
報告稱,在重要的關注點中,AI專家在世界許多地方的平衡方面傾向於壓制和專制的治理方式,同時威脅要顛覆民主政治,污染信息環境,並破壞社會的意志力。 ”
該報告發現,“ AI給專制領導人提出的具體優勢。AI工具可以幫助這種制度加強大規模抑制和監視系統,俄羅斯投資於AI系統,這些系統可以利用大量數據,從其人群中進行大量數據,從視頻監視和互聯網交通和麵部或Gait認知和GAIT認識和GAIT認可和DNA數據估計。”
“例如,中國被指控開發AI工具,這些工具專門幫助其監視其少數群體,並擴展其數字“社交信用”系統的影響……將AI借助現有的鎮壓系統打開了能夠使用速度,自動化和進一步識別AI的穩定範圍和散佈信息的速度和模式識別的信息。
蘭德歐洲的研究人員補充說,中國通過向80多個國家的城市出口非AI監視平台來傳播“專制規範”,“添加AI-ai-Systems是關於這一趨勢的詳細說明的”。
Furthermore, the researchers warned, “even within democratic countries, commercial and dual-use AI technologies exported from suppliers in authoritarian countries (eg drones or CCTV cameras with built-in edge AI) could create new vulnerabilities and potential backdoors within critical national infrastructure. AI tools could also support online monitoring, intimidation, or extortion of diaspora communities or foreign dissidents as well as assisting with social 工程,
蜂蜜誘餌,並使用深擊對民選政治家發揮影響力。這些威脅構成了重大挑戰,也對AI部門構成了直接威脅。
該報告說,“州軍隊和武裝非國家群體對AI的採用正在迎來競爭和衝突特徵的重大變化”,強調“發展,整合和使用AI用於軍事目的可能對戰爭的未來以及對國際和平與安全的未來產生深遠的影響。”
報告說:“無論是在戰術,運營還是戰略層面上,這既帶來機會和風險”。
蘭德的報告在很高的水平上說:“ AI可以進一步分為狹窄,寬闊和強大的AI。”
報告說,狹窄的AI(有時稱為弱AI)“是指旨在執行狹窄任務的AI系統(例如面部識別或互聯網搜索),並且只能在有限的預定義範圍內運行。”這些“是在其特定任務中表現出色但缺乏理解或應用其編程超出知識的能力的專業系統。”
蘭德解釋說:“廣泛的AI是指AI的方法,該方法著重於創建能夠在多個任務和領域中概括知識和技能的系統。這些系統將能夠適應任務,但不能以senterience的水平或與人類績效相提並論。”
最後,蘭德說,有強大的AI包括人工通用智能(AGI),並指“能夠“能夠理解,學習,適應,適應和實施在廣泛的任務上等於或超越人類能力的廣泛任務。
蘭德歐洲報告稱,“對這些技術的應用和含義的理解有所改善,但是從低基礎來看。儘管圍繞人AI進行了很多炒作,但我們的理論理解和我們對潛在的弊端和我們對不同用例的風險的經驗數據以及我們在包括軍事環境中的較高範圍的差異,包括在及時及時的AI,包括AI的潛在益處和風險,在及時及時的AI際交往。未來進步的可能步伐和方向的不確定性水平。”