一架被劫持的無人機落在目標上,一輛攻擊司機的自動駕駛汽車,一場基於深度造假的有針對性的數字抹黑活動,破壞了聲譽:所有這些科幻場景都可能很快成為現實。一份報告英國《金融時報》更新以令人震驚的方式指出人工智慧的快速和無監督發展所帶來的風險。
稱為“人工智慧的惡意使用:預測、預防和(風險)降低» (''人工智慧的惡意使用:預測、預防和緩解'')這份大約一百頁的報告由來自牛津、耶魯、劍橋、開放人工智慧協會和電子前沿基金會的研究人員撰寫。產業領導者對情勢做出悲觀評估:過去五年人工智慧效能的爆炸性成長將透過降低成本來促進新型網路武器的設計。這不僅會導致現有威脅的擴大,還會帶來新型攻擊。
該報告對未來的潛在威脅非常具體:無人機和無人駕駛汽車不僅可以單獨使用,還可以以集群的形式成為真正的戰爭武器。或為日常物品添加智慧如何放大日常物品可能造成的威脅。
除此之外還有更多的數位攻擊,例如入侵帳號、網站等。由於人工智慧的學習能力,這不僅會變得更容易,而且最重要的是更有針對性。
如果威脅很容易識別,那麼英國《金融時報》對報告中提供的有關防止人工智慧濫用的線索很少感到遺憾。研究人員建議進行更多諮詢和自我審查——不要發布某些過於“敏感”的演算法的細節等。但在中美人工智慧激烈競爭的背景下,研究人員往往會全力以赴尋找最佳雇主…而不必考慮其研究的所有應用,特別是軍事和/或娛樂可以用它製成。
然而,有一點是確定的:隨著自動駕駛汽車的到來,我們將必須圍繞人工智慧做出決策並建立一個框架。在為時已晚之前。