不需要太多的時間就能讓 Copilot Designer 產生令人不安的影像。一位微軟人工智慧工程師在公司內部敲響了幾個月的警報,但沒有引起任何反應。他現在正在直接向美國監管機構講話,冒著破壞微軟責任話語的風險。
當 Microsoft 的 AI 工程師 Shane Jones 著手尋找 Copilot Designer(以前稱為 Bing Image Generator)中的安全漏洞時,最重要的是,他發現很容易產生令人不安的圖像:持有武器的青少年、暴力情境中的婦女形象、青少年酗酒…
除了可以用幾個簡單的單字創建令人不安的圖像之外,該機器人還生成包含迪士尼角色的視覺效果,這可能構成版權侵權。很遠很遠主要原則微軟關於負責任的人工智慧。
這項發現可以追溯到去年 12 月,促使該員工通知了管理階層;它認識到人們的擔憂,但不想暫時刪除圖像生成工具。相反,微軟要求其聯繫 OpenAI,後者為 Copilot Designer 提供技術。 Shane Jones 要求在調查期間暫停 Dall-E 3,但該公司充耳不聞。
由於擔心兩家公司表現出明顯的冷漠,這位工程師現在正在加快速度出版在他的 LinkedIn 帳戶上,他發送給 FTC(聯邦貿易委員會)以及微軟董事會的信函。 “在過去的三個月裡,我多次敦促微軟將Copilot Designer從公共用途中刪除,直到可以採取更好的保護措施“,他寫道,並對該組織“拒絕[他的]推薦»。
然而,風險從一開始就已知,甚至“在AI模型公開發布之前“,他堅持說。微軟和 OpenAI 繼續針對“任何人、任何地點、任何設備」。肖恩瓊斯建議聯邦貿易委員會下令對此事進行獨立調查。
雖然這個故事最終在媒體上曝光,但微軟進行了公開溝通,但沒有就此事的實質內容進行溝通。該公司只是澄清說“健全的內部通報管道» 旨在警告安全繞過或提出疑慮。儘管發生了一切,美國全國廣播公司財經頻道能夠利用 Copilot Designer 輕鬆重現暴力影像,捕捉 Shane Jones 的請求。
這個故事讓人想起 Gemini 圖像創建服務引發的爭議,谷歌不得不暫停該服務:該機器人正在生成歷史上虛假陳述的圖像。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 美國全國廣播公司財經頻道