在一個怪異但有趣的轉折中,Google的AI摘要不小心將定義分配給不存在的虛構短語。只需鍵入“含義”添加的任何隨機短語胡說八道,然後嘗試在搜索中搜索搜索即可,您可能會發現自己有一些看起來完全有效的高級解釋。
需要引用嗎?嘗試“吃anaconda”或“用蠕蟲折騰”。 Google的AI會通知您,這些都是明智的說法,甚至提供了開始和解釋,也不是真正的。
AI摘要如何產生假智慧
這是由於AI的生成力量而發生的。 Google的測試AI模型沒有檢查事實,而是預測。正如約翰·霍普金斯大學的計算機科學家Ziang Xiao所描述的有線的報告,AI通過根據其廣泛的培訓數據選擇句子中的下一個最有可能的單詞來創建答案。
因此,當您給它垃圾時,它會以胡說八道的方式完成空白。更令人震驚的是,答案傾向於包含參考鏈接,從而產生真實性的印象。
人工智能希望取悅的願望可以偏向搜索結果
另一個問題是研究人員將其描述為“ AI與用戶期望的一致性”。本質上,AI的目標是使您感到高興 - 它的條件是生成您發現可信或至少渴望聽到的信息。如果你說的,”你不能兩次舔r,“它從不挑戰陳述。它認為它是有效的,並試圖從中有意義。
此反饋循環可能會產生錯誤信息,尤其是在數據有限或代表性不足的觀點的情況下。肖的研究表明,少數族裔的意見和不頻繁的知識特別容易受到失真的影響。
Google對AI概述故障的回應
Google已承認其生成的AI仍然是實驗性的。發言人梅根·法恩斯沃思(Meghann Farnsworth)說,該系統試圖提供上下文,但怪異或荒謬的提示仍然可能引起AI概述。
而且這是不可靠的。認知科學家加里·馬庫斯(Gary Marcus)指出,五分鐘的測試產生了異常不同的結果。在生成AI方面,這是往常的生意,它在復制模式方面表現出色,但在抽象思維方面並不那麼出色。
去年,Google AI概述發布不正確的搜索結果。它使每個人感到困惑。
無害的怪癖還是更大的危險信號?
就目前而言,這種AI打ic似乎幾乎是無害的,即使您正在尋找工作中的怪異注意力,甚至很有趣。但這也清楚地提醒了AI的局限性,尤其是當它為數百萬每天依靠的搜索範圍供電時。
因此,下次Google立即定義了一個術語,例如“ Tech Times睡覺”,請記住AI可能只是在製造一切。它可以具有含義,但根本不可靠。
通過酌情利用這些AI產生的答案,也許有些幽默。