正在為具有新的“驗證組織”狀態的開發人員設定更高的標準,這一要求可能很快就會成為訪問其最複雜的人工智能模型的必要條件。
從表面上看,ChatGPT 製造商希望確保負責任地使用其快速發展的人工智能技術。
已驗證的組織狀態是什麼?
根據OpenAI 幫助頁面,經過驗證的組織流程旨在對希望解鎖 OpenAI 平台上最新、功能最強大的 AI 工具的訪問權限的開發人員進行身份驗證。
驗證需要提交由受支持的國家/地區政府頒發的有效身份證件。每個 ID 在 90 天內只能用於驗證單個組織。此外,並非所有組織都會自動獲得資格,並且資格可能會根據內部標準而有所不同。
OpenAI 表示新系統旨在阻止其產品的濫用。
“不幸的是,一小部分開發人員故意使用 OpenAI API,違反了我們的使用政策。我們正在添加驗證流程,以減少人工智能的不安全使用,同時繼續向更廣泛的開發人員社區提供高級模型,”該頁面寫道。
儘管隨著跨行業變得越來越複雜和強大,該公司似乎專注於防止濫用,特別是利用 API 的惡意行為者。這涉及製造錯誤信息、侵犯數據完整性或規避版權和知識產權保護。
打擊惡意使用和外國剝削
身份驗證步驟也可以是對人工智能濫用導致的全球緊張局勢的回應,TechCrunch其報告中指出。
OpenAI 已經發布了公開報告,討論其為防止國家支持的網絡攻擊團體(例如據稱與朝鮮和俄羅斯有關的網絡攻擊團體)使用所做的努力。
OpenAI 意識到任何 OpenAI 平台內都可能發生 IP 盜竊的情況。例如,中國人擁有的因為它缺乏保障和保護,《科技時報》大約兩個月前寫道。
2025年底,當局調查了該AI平台,卻發現通過OpenAI API的大量數據被劫持。這些數據可能被用來根據 OpenAI 的條款訓練競爭的人工智能係統。
反過來,OpenAI 在 2024 年中期限制了來自中國的訪問,作為減少地緣政治風險和外國入侵的更大舉措的一部分。
尚未給出有關新模型的時間表或功能的詳細信息。我們唯一知道的是,該措辭意味著驗證可能成為未來高級訪問的要求。









