能夠創造內容的人工智慧變得越來越高效,以至於常常無法辨別真假。這可能會在現實中產生後果,去年春天我們再次看到了這一點五角大廈爆炸的真假影像這讓華爾街陷入混亂。
肉眼看不見的水印
科技巨頭提出的解決方案:在人工智慧產生的內容上加浮水印。這是該產業在白宮就此主題的會議上所主張的。然而,正如Google最新舉措所示,實施過程可能會非常複雜。
谷歌的專業人工智慧分支 DeepMind 揭曉一個名為 SynthID 的新工具,可以為 AI 影像添加浮水印。肉眼看不見的水印,但它直接整合到視覺像素中,因此,知道在哪裡看的系統仍然可以檢測到水印。
SynthID 目前僅適用於少數 DeepMind 客戶,最重要的是,這種浮水印技術僅限於使用 Imagen(Google 的真實感影像建立模型)產生的視覺效果。這將嚴重限制該技術的範圍,僅限於搜尋引擎生態系統。鑑於人工智慧圖像生成工具的激增,SynthID 可能只是浪費時間。
DeepMind 沒有提供有關其浮水印的技術細節,以防止聰明的人找到繞過它的方法。然而,這只是時間問題:SynthID 的秘密最終會被發現,特別是如果該系統被證明有效,該公司打算與合作夥伴分享這些秘密。小心漏!
只有整個產業齊心協力設計一種通用的水印,並且盡可能難以穿透的水印,這種類型的水印才會真正相關。 Google也表示SynthID可以適應其他AI模型。另一個陷阱是,世界上所有的浮水印都無法阻止人工智慧生成的壯觀圖像的病毒式傳播。
DeepMind 並沒有抱持任何幻想:所提出的方法並不是防止影像極端操縱的盾牌。相反,它是組織負責任地處理人工智慧生成內容的工具。
來源 : 深腦