另一個部門是關於人工智能的潛在危害的危險信號,這次是關於生物識別安全的。學術界,網絡安全專家和政府都在問有關是否是否存在的問題生成的AI具有損害生物特徵驗證系統的能力,以及可能產生什麼後果。
最近podcast從經濟學家那裡匯集了幾種著名的聲音,討論了這個問題,以及在日常生活中生物識別驗證的越來越多的情況下意味著什麼。
“隨著生成人工智能的年齡,我的臉或聲音的欺騙可能會使黑客敞開大門,這是可行的,”經濟學家的高級編輯肯尼斯·庫基爾(Kenneth Cukier)在其每週的技術播客《鮑巴奇》(Babbage)上說。 “我們已經看到了深擊音頻和視頻。 ”
“隨著生物識別技術被越來越廣泛,生成的AI改善,可以採取什麼措施來降低風險?如果AI變得足夠強大以使生物識別技術幾乎過時,該怎麼辦?”
生物識別技術是安全的,因為它們是獨一無二的。從歷史上看,與密碼相比,面部印刷更難復制。但是,如果該數據受到損害,同樣的強度將成為更大的風險。哈佛大學的安全技術專家布魯斯·施尼爾(Bruce Schneier)在播客上發表講話黑客的思想指出,具有諷刺意味的是,指紋,視網膜掃描和麵部生物識別技術的相對不變性僅在受保護的情況下使其更安全。
施尼爾說:“我們談論的最大風險之一是您無法從失敗中恢復過來。如果我有一個密碼而且我的密碼被盜,我可以創建一個新密碼。這很容易。如果我使用的是拇指紋,並且被盜了……我有點不能得到另一個拇指。生物識別技術不是您可以隨時創建的。它們是奇異的,他們是公開的,而且都是您所擁有的。 ”
深擊是另一個主要挑戰。卡蒂娜·邁克爾亞利桑那州立大學的一名教授,研究了增強情報和社會未來的教授,他說,獲得準確有效的欺騙所需的技術正在降低進入的障礙。 “欺騙一個系統,偽裝成某人,通過防禦能力,越來越有可能 - 尤其是如果我們在生物識別技術中沒有實時發現。”
Apac國家推動調節AI的有爭議用途
經濟學家的談話是一個思想實驗。但是政府繼續與大型語言模型(LLM)和生成AI。
在韓國,個人信息保護委員會宣布了研究小組的大會審核和更新法律,以便對生物識別數據提供足夠的保護。如國家法律評論,該委員會的聲明包括“生物特徵信息本質是個人獨有的,又是不可變的”,“濫用或洩漏的影響都會更大。”
韓國加入中國和新加坡在亞太國家介紹生成AI系統的監管指南中。澳大利亞也是考慮禁止它認為是AI的高風險實例,包括深擊和算法偏見。
同時,歐盟繼續在採用AI的監管框架中發揮主導作用,這次是美國歐盟貿易技術委員會聯合聲明,於5月31日在瑞典盧萊奧(Luleå)舉行的部長級會議之後出版。人工智能和其他發展技術的快速增長成為中心階段,理事會作為關鍵結果,“在新興技術方面為聯合美國歐盟領導力的新興技術進行了強大的跨大西洋合作。”
“美國和歐盟致力於加深我們在技術問題上的合作,包括人工智能(AI),6G,在線平台和量子,”宣讀。“我們致力於充分利用新興技術的潛力,同時限制了它們對普遍人權的挑戰並共享民主價值觀。 ”
指向現有的聯合路線圖關於值得信賴的AI和風險管理的評估和測量工具作為一個良好的開端,新的聯合聲明承諾在三個關注的領域中創建專家群體。第一個將定義和標準化AI的詞典和分類學。第二個將致力於管理風險的標準和工具,第三個專門用於監視現有和新興問題。
除了解決生成AI之外數字身份並舉行了一系列美國歐盟技術交流和活動,以吸引政府,工業,民間社會和學術界的主題專家。 ”
它說:“我們打算開發數字身份資源,計劃和用例的跨大西洋映射,目的是促進跨大西洋前標準化的研究工作,促進互操作性以及在尊重人權的同時簡化實施指導。”