大型語言模型(LLMS)推動了聊天機器人,例如Chatgpt和Google Bard,從而對人工智能進行了顯著改進。但是,這些先進的AI系統確實具有某些缺點。一個主要問題是AI幻覺,其中LLM提供了虛假或欺騙性的數據。
LLM是為了創造流體和連貫的散文,給人的印像是幻覺是真實的。這些邏輯或事實不一致之所以出現,是因為AI不理解語言表達的基本現實。根據技術目標,LLMS取決於統計趨勢在給定上下文中產生語法和語義上的聲音內容。
儘管幻覺在LLMS中很常見,但仍然很難根據具體情況確定這些誤導性輸出的確切起源。這些幻覺為企業,組織和高中生提供了重大問題,這些學生使用生成AI來進行文檔創作和具有高風險結果的活動,例如心理治療和法律簡短寫作。
一個艱鉅的挑戰
Anthropic的Chatbot Claude 2的開發商承認發生了幻覺的發生,同時強調了現有算法主要是為了預測以下短語而構建的,這可能會導致錯誤。像Anthropic和Openai這樣的主要AI系統創建者正在積極嘗試提高其模型的真實性。這些努力目前正在評估功效。
語言學教授兼華盛頓大學計算語言學實驗室的負責人艾米麗·班德(Emily Bender)認為,AI技術與預期用例的不匹配會導致AI幻覺。該問題引起了人們對生成AI技術的可靠性的擔憂,特別是鑑於預期的經濟效應,麥肯錫全球研究所估計這範圍從2.6萬億美元每個新聞新聞,至4.4萬億美元。
Google以前曾提供了新聞公司,即準確性至關重要,這是可以寫新聞報導的AI工具。美聯社與OpenAI一起研究AI技術以增強其係統。印度計算機科學家Ganesh Bagler正在開發AI算法來為南亞食品創建食譜。他指出,幻覺組件的結果可能會提供美味或不滿的晚餐。
人類應該始終參與
Yoky Matsuoka家庭禮賓服務Yohana的創建者警告不要將就業完全外包給AI。她認為,由於AI幻覺會產生不准確的結果,因此應將人類包括在此過程中,以仔細檢查和糾正他們的工作。馬蘇卡還強調要記住AI是為“人類”創建的。
美國國家科學院院長瑪西婭·麥克努特(Marcia McNutt)強調,應將AI用作第二意見,協助人們做出選擇根據福布斯的說法,與其為企業做出決定。
消除AI幻覺的目的是具有挑戰性的,並且繼續是技術進步。為了充分實現AI的變革潛力,必須在其能力和人類控制之間取得正確的平衡至關重要。
