谷歌和必應的人工智慧聊天機器人似乎互相引用了謊言
這可能會變得非常混亂。
Bing 的人工智慧 (AI) 聊天機器人似乎引用了 Google 競爭對手聊天機器人 Bard 最初製造的謊言,這是一個令人擔憂的例子,說明新的大型語言模型如何傳播錯誤訊息。
這是艱難的一周聊天機器人,所以它們沒有感情可能是件好事。 Google向大眾推出了新的聊天機器人 Bard,最初的幾天相當坎坷。
「巴德的推出引起了不同的反應,」巴德告訴 IFLScience,同時收集了來自網路的資訊。 “有些人對 Bard 成為溝通和創造力的強大工具的潛力感到興奮,而另一些人則擔心 Bard 可能被用於錯誤訊息和濫用。”
有趣的是巴德應該提到這方面,因為它已經表現出了一些值得注意的表現– 提供與現實無關的自信和連貫的回應。
一位用戶,自由用戶體驗作家和內容設計師 Juan Buis,發現聊天機器人認為它已經因缺乏興趣而關閉。
Buis 發現機器人獲取此資訊的唯一來源是一個 6 小時前的笑話對駭客新聞的評論。 詩人繼續列出更多原因巴德(尚未關閉)已經關閉,包括它沒有提供任何新的或創新的東西。
“無論什麼原因,很明顯 Google Bard 並不是一個成功的產品,”新增了谷歌吟遊詩人。 “它推出後不到六個月就被關閉了,而且不太可能恢復。”
現在,儘管這個錯誤令人尷尬,但它很快就被修復了,本來可以就此結束。 然而,許多網站都寫了有關該錯誤的故事,而 Bing 的人工智慧聊天機器人隨後對這些錯誤進行了嚴重的誤解。
作為由 The Verge 發現,Bing 然後接聽其中一篇文章,曲解了它,並開始告訴用戶巴德已經停產了。
該錯誤現已修復,但可以合理地了解這些新功能如何隨著人們開始更多地依賴它們來獲取信息,它們可能而且確實會出錯。 除了幻覺訊息之外,聊天機器人現在可能最終會根據其他聊天機器人的幻覺和錯誤來獲取資訊。 它可能會變得非常混亂。