OpenAI 開發的技術幾乎可以在 100% 的情況下檢測用 ChatGPT 編寫的文字。但該公司不願意將其放到網路上:該機器人的用戶可能會拒絕它...
成為老師們的恐懼:人工智慧出現以來,由AI寫的作業激增聊天GPT,2022年底!在科學界發表文章,甚至對出版社來說,機器人也帶來了嚴重的抄襲問題。未經訓練的眼睛確實會陷入其中,而對於經驗豐富的眼睛來說,仍然很難確定文字是否是由人工智慧產生的。這就是該行業的公司正在開發檢測工具的原因,就像開放人工智慧……誰決定不啟動它。
反作弊工具的困境
ChatGPT的AI模型「猜測」句子中應該出現的單字或單字片段;這個「令牌」構成了 OpenAI 的「反作弊」工具可以偵測到的浮水印。它實際上提供了一個分數,表明整個文件(或部分文件)是由機器人產生的可能性。根據 ChatGPT 所涵蓋的文檔,當 ChatGPT 創建了足夠的文本時,水印檢測的有效率可達 99.9%華爾街日報。
如果確實有這個工具的需求,OpenAI 很樂意將其上線。根據該公司進行的一項調查,該檢測器會讓近三分之一 (30%) 的忠實 ChatGPT 用戶望而卻步。毫無疑問,OpenAI 不需要用戶,用戶可以成為付費訂閱者並補充資金。有嚴重融資需求的公司!
在 2023 年 4 月進行的同一項調查中,69% 的機器人用戶認為反作弊技術會導致對人工智慧使用的虛假指控。除了這個非常務實的方面之外,水印也很容易刪除,例如透過在Google翻譯中翻譯文本,或讓 ChatGPT 在文本中添加表情符號,然後手動刪除它們。
OpenAI 也擔心該工具會對母語非英語的使用者產生不成比例的影響。發言人證實,文字水印方法是“有前途的» 她介紹的 «重大風險» 目前正在評估。
另一個難題:我們該向誰提供這個工具?用的人少,就沒用;用的人少,就沒用。相反,如果它太廣泛可用,就有可能破解水印方法......並愚弄反作弊技術!
去年年初,OpenAI 提供了一種 AI 產生的文字偵測演算法(適用於 ChatGPT,但不僅限於此)。幾個月後,由於成功率僅為26%,該專案被撤回。谷歌也為 Gemini 創建的文本提供了這樣的工具,但是SynthID 仍處於測試階段最重要的是,它實際上並不可用。
來源 : 華爾街日報