雖然人工智慧時代的第一次重大選舉將於2024 年舉行,但OpenAI 發表了一篇部落格文章,解釋了該公司打算如何確保其人工智慧工具(ChatGPT、Dall-E)在選舉過程中不會被濫用。
製作旨在欺騙選民的影片或圖像、開發大規模深度造假以淘汰特定候選人、讓選民無法辨別真假……人工智慧時代的選舉會是什麼樣子?如果我們已經有一些政客試圖利用人工智慧來誹謗對手的案例,在法國作為在美國,這些工具的有問題的使用預計會成倍增加。特別是因為今年將舉行許多選舉。除了美國總統和歐洲議會議員選舉外,英國、印度、南非、印尼和墨西哥也計劃舉行重要民意調查。
這些關鍵的選舉也將很特別,因為從現在開始,所有選民以及所有想用它們來捍衛自己的事業並抹黑自己的事業的政客都可以使用 ChatGPT、Bard 或 Dall-E 等生成式人工智慧工具。競爭對手。足以成為可能削弱民主的全面實驗的遊樂場。如果這讓許多研究人員擔心的話,OpenAI 在 1 月 15 日星期一率先發布了一篇關於這個主題的部落格文章。
ChatGPT 背後的公司表示,計劃防止濫用、工作人工智慧生成內容的透明度和改善對準確投票資訊的訪問」。當談到假資訊時,開發人工智慧工具的公司必須面臨兩個主要問題:如何確保系統在回應中不會產生虛假資訊?去年12月,美國媒體有線研究表明,Copilot,微軟的人工智慧聊天機器人,僅通過轉發“來回答有關選舉的問題”陰謀論、假醜聞和謊言」。因此,我們如何才能防止人工智慧被使用“以可能損害民主進程的方式»?
禁止生成候選圖像
OpenAI 首先指出它已經阻止了某些用戶請求。所以, ”我們不允許設計師創建冒充真人(例如候選人)或真實機構(例如地方政府)的聊天機器人」。同樣地, ”Dall-E 有保障措施來拒絕產生真人影像(包括候選人)的請求」。它也不允許網路使用者使用其係統來說服選民不參與民主進程。
該公司表現得特別謹慎,承認它正在尋求“尚未了解我們的工具在個人化說服方面的有效性。在我們了解更多信息之前,我們不允許人們創建用於政治競選和遊說的應用程式»。
Dall-E 產生的影片和影像的浮水印
OpenAI 也解釋說,它依賴於我們經過驗證的資訊和圖像真實性計劃,以確保用戶在整個選舉過程中獲得高品質的訊息」。為此,該公司表示,對於圖像和視頻,它將嘗試一種新工具,該工具可以檢測哪些照片是用 Dall-E 拍攝的,這要歸功於「出處分類器」。該工具已於去年 10 月發布。
Sam Altman 的公司還解釋說,它還將實施由該行業公司聯盟定義的系統,“內容來源與真實性聯盟」。這將涉及自動向 Dall-E 3 生成的圖像添加標記或圖標。在文字和資訊內容方面,OpenAI強調將把來自世界各地的即時資訊整合到ChatGPT中,“包括歸屬和鏈接»,該公司補充道。
為了獲得連續的資訊——這使得能夠產生與最新事件或選舉結果同步的回應——OpenAI 將依賴與美國和德國媒體(例如 Axel Springer 集團)簽訂協議。在《紐約時報》宣布訴訟幾天后,該公司解釋說,其他事宜將進行談判。 《美國日報》指責他未經授權掠奪他的文章來訓練他的法學碩士。 OpenAI 在其部落格文章中指出的最後一項表示,它將把 ChatGPT 用戶重新導向到 CanIVote.org,該網站提供有關美國投票和選舉的參考資訊。
為了什麼效果?
所有這些元素都會有效嗎?如果很多人對此表示懷疑,OpenAI 並不是唯一一家採用這種策略的公司。谷歌去年 12 月保證,將限制對其人工智慧聊天機器人 Bard 提出的選舉請求。 Facebook、Instagram 和 WhatsApp 的母公司 Meta 幾個月前就禁止使用其人工智慧廣告工具進行競選活動。
谷歌和 Meta 也在研究數位浮水印,以檢測特定文字或圖像是否由人工智慧產生。 DeepMind 方面被突出顯示為 S據報道,ynthID 可以為人工智慧生成的圖像和聲音添加數位浮水印Google上個月。 Meta 也為其人工智慧生成的任何圖像選擇了這種隱形標記。這些元素可能會隨著用途和技術的演變而演變。
來源 : OpenAI 部落格文章