用肉眼檢測人工智慧產生的影像變得越來越困難。你只需數一下手上的手指數量就知道它是真是假的日子已經一去不復返了……問題是這些人工智能模型不僅可以創建可愛的貓的圖像:它們還可以是用來操縱輿論。
可靠性問題
在這個重要的選舉年(世界上一半的人都被要求參加投票!),這個主題變得更加重要。去年二月,人工智慧業者承諾保護民主免遭人工智慧濫用,透過開發水印系統例如。
OpenAI 則推出了一款工具,能夠以 98% 的可靠性偵測 Dall-E 3 產生的影像…如果這些圖像在創建後沒有透過裁剪或修改進行更改。當圖像被編輯或作為螢幕截圖共享時,該工具是“輕微地» 該公司承認效率較低,但仍保證可以精確識別。
OpenAI 還指出,在 0.5% 的情況下,該工具錯誤地將 Dall-E 生成的「正常」圖像(不是由 AI 生成)標記為「正常」圖像。當涉及到識別其他模型生成的圖像時,該工具常常令人困惑。
ChatGPT 的創建者也是 Dall-E 的創始人,他希望透過向外部研究人員開放他的假探測器來提高其可靠性。該工具不依賴水印,已經測試了幾個月。無論如何,隨著時間的推移,它必須證明其可靠性:ChatGPT 推出後不久,OpenAI 提出的人工智慧文字偵測器將普蘭特四分之三的時間...
來源 : 華爾街日報