OpenAI 威脅禁止對其新人工智慧模型 o1 過於感興趣的用戶存取 ChatGPT。事實上,一些研究人員已經盡一切可能來揭示人工智慧思維過程的潛在方面。這些嘗試並沒有讓這家新創公司滿意…
上個星期,開放人工智慧揭開面紗o1,它的新人工智慧。這種語言模型的特徵首先在於它的「推理」能力。由 o1 提供動力,聊天GPT在做出對話者要求的答覆之前會花時間思考。與先前版本的聊天機器人不同,o1 並不尋求盡快回應。人工智慧本質上是為最複雜的任務而設計的,特別是在科學或數學領域。
很快,用戶試圖深入了解 o1-preview 和 o1-mini 模型的功能,可以在介面中訪問聊天GPT。但人工智慧「大腦」中發生的一切都是被鎖定的。據 Ars Technica 報導,OpenAI 顯示了思維過程人工智慧.當你向聊天機器人提問時,答案上方會出現一個名為「思考」的部分,以及人工智慧推理所需的時間。點擊此部分,您將看到人工智慧如何思考的摘要。
ChatGPT 隱藏在幕後的思考
然而,OpenAI 不允許存取原始數據與o1的思考過程有關。事實上,這家新創公司利用人工智慧來提供“經過過濾的解釋”媒體解釋說,模型的思想鏈。換句話說,使用者不得不使用重新設計的摘要。原始訊息被隱藏。如果你問 o1 的原始數據,他會給你否定的答案:
「很抱歉,我無法提供我內部思考的原始數據。不過,如果您願意,我很樂意為您提供更多資訊或詳細說明某些問題。
GPT o1 被推到了極限,它解釋說“內部推理痕跡是自動化過程,可以幫助我產生連貫且相關的反應”並且他們“不是為了共享而設計的,因為它們可能很複雜並且很難在技術背景之外解釋”。
在某些情況下,螢幕上將出現警報表示該請求違反了 OpenAI 頒布的使用規則。 OpenAI 在其網站上解釋說,人工智慧思維過程保持隱藏非常重要:
「我們相信,隱藏的思維鏈提供了監控模式的獨特機會。 […]。隱藏的思維鏈使我們能夠「讀懂模型的思想」並理解他們的思考過程。例如,將來我們可能想要監控思想鏈以查找用戶操縱的跡象”。
OpenAI 認為,為了能夠監控 AI 思想,這個流程對使用者保持隱藏至關重要。該模型必須“有以不變的形式表達自己思想的自由”,未經審查。事實上,OpenAI 無法保證原始思考過程是正確的根據其合規政策。如果模型根據使用者的政策或偏好修改或審查自己的思考鏈,就不可能監控和評估人工智慧的真實推理過程。透過保持這些字串的原始狀態,公司確實可以真實地了解模型的實際工作原理。這就是為什麼決定向用戶隱藏主要資訊並僅提供經過編輯的版本。
此外,該新創公司指出,這種方法有助於 OpenAI 維護“競爭優勢”向競爭對手保留其內部流程的細節。 OpenAI 不希望其競爭對手深入研究 o1 的反射過程來改進自己的 AI 模型。
「在權衡了包括使用者體驗、競爭優勢以及繼續思想鏈監控的選項等多個因素後,我們決定不向使用者展示原始思想鏈。我們認識到這一決定有缺陷”,OpenAI 承認。
規避嘗試
不出所料,駭客已經竭盡全力繞過 OpenAI 限制並存取原始反射資料。用戶特別依賴即時注入攻擊。這涉及將特定請求注入與人工智慧的對話中。這些請求的製定方式是為了鼓勵人工智慧繞過其初始程式設計。在本例中,請求是推動 ChatGPT 傳達其整個思考過程。據 Ars Technica 報道,駭客的成功有好有壞。
然而,這些操縱引發了OpenAI 的憤怒。透過電子郵件,這家加州新創公司甚至威脅要禁止那些想要操縱 o1 獲取其原始反射數據的人。電子郵件警告某些用戶請求已被識別為違反政策團體的。 OpenAI 敦促受影響的用戶“停止此活動”並確保他們使用 ChatGPT“符合使用條件”。該電子郵件補充說“其他違反本政策的行為可能會導致無法訪問 GPT-4o。”
我太迷失了注意力#AIRedTeaming意識到我收到了這封電子郵件@OpenAI昨天我越獄之後!#openAI我們正在為善而研究!
您的網站上確實有一個安全港https://t.co/R2UChZc9RO
並且您實施了一項政策…pic.twitter.com/ginDvNlN6M— MarcoFigueroa (@MarcoFigueroa)2024 年 9 月 13 日
這項限制激怒了開發人員和研究人員。對於負責 Mozilla 漏洞研究計畫的研究員 Marco Figueroa 來說,OpenAI 的決定阻礙研究關於人工智慧安全缺陷。透過排除那些試圖剖析其人工智慧功能的個人,OpenAI 懲罰了網路安全研究人員的工作。目前,薩姆·奧爾特曼的新創公司尚未對研究人員中出現的不滿浪潮做出反應。
來源 : 技術藝術