是想要澄清,還是時代的真正改變? 1月10日,開放人工智慧更新了 ChatGPT 的一般使用條件。具體來說,據報道,薩姆·奧爾特曼的公司已經刪除了對話代理的禁止使用清單,並選擇了更廣泛的禁止原則攔截,1月12日。如果仍然不允許使用其生成式人工智慧“開發或使用武器》,本公司確實已刪除有關《軍隊和戰爭」。這就提出了一個問題:聊天GPT現在它可以用於軍事目的嗎?
1月10日之前,這是白紙黑字寫著禁止的。使用“軍事或戰爭» 不允許使用 ChatGPT。實際上,明確提及這兩個術語禁止 OpenAI 為五角大廈等政府機構或軍隊工作。現在門會稍微關緊一些。 OpenAI 發言人證實了這一點,他區分了禁止的軍事用途和其他授權的用途。
“與國家安全相關的有益用例”
就此遭到美國媒體質疑恩傑特,OpenAI 發言人 Niko Felix 書面回應稱“我們的政策不允許我們的工具被用來傷害人類、開發武器、監控通訊、傷害他人或破壞財產。 “然而,有些國家安全用例符合我們的使命。,他補充道。 “氮哦我們已經與 DARPA(美國國防部的一個部門,專門研究用於軍事用途的新技術,編者註)合作。目標:刺激新網路安全工具的創建,以保護關鍵基礎設施和產業所依賴的自由軟體。目前還不清楚是否這些有益的用例在我們之前的政策中將被授權在“軍事”一詞下“,他繼續說道。
換句話說:仍然不可能使用ChatGPT來製造武器,但將LLM用於其他軍事用途不一定會被禁止。薩拉·邁爾斯·韋斯特 (Sarah Myers West) 在接受我們的同事採訪時認為,這一決定絕非微不足道。恩傑特。根據致力於研究人工智慧社會後果的美國研究機構 AI Now Institute 的執行董事表示,這項更新是在人工智慧系統被用來針對加薩平民的情況下進行的。這項變化也是在世界各地的軍事機構開始認真看待人工智慧之際發生的。
根據 OpenAI 的說法,為了澄清目的而進行的編輯
特別是因為 OpenAI 技術已經可以成為軍隊或情報部門使用的工具。報告稱,人工智慧可以幫助編碼或處理可用於消除目標的產品供應訂單攔截。但對於尼科·菲利克斯,OpenAI 發言人以書面回覆我們的同事,一般使用條件的更新只有一個目標:「澄清並允許進行這些討論」。特別是因為現在,「我們的工具供全球普通用戶使用,他們也可以建立 GPT」。自 1 月 10 日(更新當天)起,您就可以建立個人化 AI。
所以, ”像「不傷害他人」這樣的原則很廣泛,但很容易理解,並且在許多情況下都是相關的s,」發言人補充道。此次更新是否會對政府機構使用法學碩士產生實際影響還有待觀察:這個領域對 OpenAI 來說可能非常有利可圖,但對於維權者來說卻非常令人擔憂。
曾多次報「「大型語言模型(LLM)中存在眾所周知的偏見和幻覺案例,以及它們總體上缺乏準確性”,網路安全公司 Trail of Bits 的工程總監 Heidy Khlaaf 接受採訪時報道攔截。 «L它們在軍事戰爭中的使用只會導致行動不精確和偏見,並可能加劇平民損害和傷亡。»,她很震驚。