願意澄清或真正改變時代? 1月10日,Openai更新了Chatgpt使用的一般條件。據報導攔截,,,,1月12日。如果仍然不允許使用其生成AI的使用”開發或使用武器“該公司確實刪除了與陸軍和戰爭»。提出了一個問題:chatgpt現在可以用於軍事目的嗎?
在1月10日之前,它是在白色上寫的,被禁止。使用 ”士兵或戰爭不允許chatgpt。實際上,對這兩個術語的明確提及禁止Openai為五角大樓或軍隊等政府機構工作。現在,門的關閉程度降低了。這是由Openai發言人確認的,Openai的發言人在被禁止的軍事用途與其他將要授權的其他人之間有所不同。
“與國家安全有關的有益用例”
問有關美國媒體的這一點Engadget,Openai的發言人Niko Felix寫道:“我們的政策不允許使用我們的工具來傷害人們,開發武器,監控溝通,傷害其他人或破壞商品。” “”但是,有與用戶相關的用例相對應的用例”,他補充說。 “”no他們已經與DARPA(美國的國防分支機構,專門研究軍事用途的新技術,編輯)。目的:刺激創建新的網絡安全工具,以確保關鍵基礎架構和行業取決於的免費軟件。目前尚不清楚是否這些有益的用例本將根據我們以前的政策中的“軍事”一詞授權他繼續。
換句話說:仍然不可能使用Chatgpt製造武器,但是不一定會禁止將LLM用於其他軍事用途。莎拉·邁爾斯·韋斯特(Sarah Myers West)說,這個決定遠非無害Engadget。根據AI Now Institute的總幹事,該研究所是一家美國研究機構,致力於AI的社會後果,此更新發生在AI系統被用來針對加沙平民的目標。這種修改也發生在世界各地的軍事機構在AI上非常重視Lorner的時候。
根據Openai的說法,進行了澄清的修改
特別是因為OpenAI技術已經可以是軍隊或情報服務使用的工具。報告可以使AI可以編碼可能用於消除目標的產品的供應命令或處理命令。攔截。但是Niko Felix,Openai的發言人以書面形式回應我們的同事,一般使用條件的更新只有一個目標:”提供清晰度,並允許這些討論»。特別是因為現在,”我們的工具是普通用戶在全球範圍內使用的,他們也可以構建GPT»。自1月10日以來,更新日,現在可以創建個性化的AI。
所以, ”諸如“不要傷害他人”之類的原則很廣泛,但在許多情況下易於理解和相關S,“發言人補充說。這項更新是否會在政府機構使用LLM的實踐中產生後果:一個行業對Openai來說是非常有利可圖的,但對權利捍衛者非常擔心,這還有待觀察。
反复報導了眾所周知的偏見和幻覺案例(LLM)以及全球缺乏精確性的案例”,報導了網絡安全公司Trail of Bits的工程總監Heidy Khlaaf,由攔截。 «l在軍事戰爭中使用的歐元只能導致不精確和有偏見的行動,這些行動可能會惡化損害和平民受害者“,她感到震驚。