Google的雙子座和微軟的Copilot,這是兩個最大的人工智能(AI)聊天機器人,在被問及問題時,他們可能會再次構建數據,這次是美國體育中最大的遊戲之一,超級碗LVIII的統計數據和結果,技術緊縮。
據報導reddit線程。像許多莊家一樣,它偏愛酋長而不是49人。
雙子座點綴了很多。在一個例子中,他提供了一個球員數據故障,這意味著布羅克·普迪(Brock Purdy)只有253碼和一個達陣,而堪薩斯州酋長四分衛帕特里克·馬霍姆斯(Patrick Mahomes)跑了286碼,進行了兩次達陣和攔截。

當被問到類似的問題時,微軟的副作用聊天機器人也偽造了其數據,聲稱49人而不是酋長隊以24-21的最終成績獲勝,並提供了虛假的引用來支持其主張。
至於chatgpt,供電副駕駛的Genai模型與為Openai的Chatgpt提供動力的Genai模型是可比的,即使不是相同的。但是,Tech Crunch聲稱Chatgpt不願進行相同的幻覺。
但是,根據Tech Crunch,聊天機器人不再存在幻覺數據,因為當被問及相同的問題或提示時,它不再可以復制。
AI最大的缺陷
AI幻覺被證明是生成的AI和聊天機器人中不斷的缺陷;根據海峽時間,最近的一項斯坦福大學的一項研究認為,根據三種尖端的生成AI模型提供了200,000個法律查詢的答案,AI幻覺是“普遍且令人不安的”。 Openai的Chatgpt 3.5在對隨機聯邦法院案件的精確,可驗證的問題提出的問題上,有69%的時間幻覺,而Meta的Llama 2模型在88%的時間內達到了88%。
顯示AI幻覺的案件仍然很普遍,因為最近律師據說使用Chatgpt撰寫了一份法律簡短文件,律師提交給曼哈頓聯邦法官;在簡介中,聊天機器人提到了虛擬法院案件並使用了偽造的語錄。
Google和Openai在AI幻覺上
據報導,現在建議用戶仔細檢查他們的響應,並受到Openai和Google的警告,他們的AI聊天機器人可能會犯錯誤。此外,兩家科技公司都在調查減少幻覺的方法。
根據Google,它使用的一種方法是用戶輸入。據該業務稱,用戶可以通過單擊“拇指向下”按鈕來幫助bard學習和改進,並解釋響應不正確的原因。
通過使用OpenAI採用的一種稱為“過程監督”的技術,AI模型將通過應用聲音推理來產生所需的結果而獲得獎勵,而不是簡單地支付系統來對用戶的命令產生準確的響應。
