尼曼實驗室有發現了那正在從其合作夥伴出版物生成新聞報導的虛假鏈接。據報導,儘管與主要新聞機構簽訂了許可協議,但 ChatGPT 仍將用戶引導至不存在的 URL,引發了對該工具準確性和可靠性的擔憂。
在過去的一年裡,眾多主要新聞機構與 OpenAI 合作,同意讓 ChatGPT 生成其報導摘要並鏈接回其網站。然而,人們發現 ChatGPT 一直在為重要故事創建虛假 URL,導致用戶進入 404 錯誤頁面。
這個問題在《商業內幕》工會代表致管理層的一封信被洩露後首次為人所知,尼曼實驗室的進一步測試證實該問題至少影響了其他 10 家出版物,包括美聯社、華爾街日報和金融時報。
在測試過程中,ChatGPT 被提示鏈接到這些出版物中的重要調查文章,包括獲獎故事。然而,人工智能工具經常無法提供正確的鏈接。
Nieman Lab 舉了一個例子,其中 ChatGPT 被要求查找有關 Wirecard 醜聞的信息,ChatGPT 正確地將《金融時報》識別為來源,但提供了不相關網站的鏈接,而不是原始文章。
這個問題並不是孤立的少數案例。根據尼曼實驗室的說法,當提示進行其他備受矚目的調查時,例如《華爾街日報》對前總統唐納德·特朗普支付封口費的報導,人工智能再次將用戶引導至無效鏈接。
與 OpenAI 合作的媒體公司已公開表示 ChatGPT 應以適當的歸屬鏈接到他們的網站。 《大西洋月刊》和阿克塞爾·施普林格在其聲明中都強調,涉及其內容的用戶查詢將包括完整文章的直接鏈接。
然而,目前尚不清楚 OpenAI 計劃如何在聊天機器人頻繁生成不准確的 URL 時確保這些功能正常工作。
OpenAI的回應
針對這些問題,OpenAI 承認其許可協議中承諾的引用功能仍在開發中。 OpenAI 發言人 Kayla Wood 表示,該公司正在與其新聞合作夥伴合作,創造更好的用戶體驗,其中包括正確的歸屬和源材料的鏈接。
不過,OpenAI 並未提供有關計劃如何解決虛假 URL 問題的更多細節。尼曼實驗室的安德魯·戴克 (Andrew Deck)進行了測試,他的發現表明 ChatGPT 經常產生 URL 幻覺,並且目前缺乏為其合作夥伴提供故事相關鏈接的能力。
不過,Deck 承認,此次評估並不構成對 ChatGPT 的全面審核,計劃進一步調查所涉及的技術因素。
“不過,如果這些 URL 幻覺大規模發生,OpenAI 可能需要解決這個問題,才能完成向新聞出版商的一般宣傳,”Deck 說。









