所有人工智慧,來自聊天GPT致克勞德路過谷歌吟遊詩人,有可能產生錯誤答案,與現實相去甚遠。有時,語言模型會陳述不準確甚至完全荒謬的事實來回答對話者的問題。然而,這些答案是由人工智慧作為已被證實的事實呈現出來的。研究人員將這種現象稱為人工智慧「幻覺」。
人工智慧幻覺的危險
最終,由語言模型驅動的聊天機器人可能會散播假訊息在用戶不知情的情況下。這樣的例子不勝枚舉。在亞馬遜上有售的幾本由人工智慧編寫的書籍中,我們發現危險…或致命的建議。此外,由 GPT 模型驅動的聊天機器人開始想像不可食用且有毒的烹飪食譜。紐西蘭一家超市提供的對話機器人建議網路用戶用漂白水、強力膠水或鬆節油烹飪。
這些幻覺代表研究者的障礙和開發商。如果人工智慧偶爾能說出任何話,那麼就很難委託它執行關鍵任務或將其用於某些領域,例如醫學。
減少幻覺的技巧
意識到這一重大問題,人工智慧研究人員目前正在努力尋找解決方案。正如我們在 The Next Web 的同事所報導的那樣,挪威新創公司 Iris.ai 可能已經發現解決方案的開始。
該公司總部位於奧斯陸,開發了一款由人工智慧驅動的引擎,該引擎將在匯總、分析和分析大量數據之前查閱這些數據。“去理解”。由歐盟資助,該項目基於《神經網路演算法》自動化“發現相關科學文獻並創造新假設的過程”。根據啟動情況,引擎可以做“在搜尋過程中節省高達 90% 的時間”。但是,與所有其他基於人工智慧的工具一樣,人工智慧有時也會產生幻覺。
為了避免這種情況,這家成立於 2015 年的新創公司實施了一系列緩解技術。首先,Iris.ai 將有系統地檢查準確性其工具產生的響應。這家新創公司開發了一種技術,可以自動確定答案是否正確。
「我們繪製了我們期望在一個好的答案中看到的關鍵知識概念。然後我們檢查人工智慧的回應是否包含這些事實以及它們是否來自可靠的來源””,Iris.ai 技術總監 Victor Botev 在接受媒體採訪時解釋道。
此外,這家挪威公司將把人工智慧產生的回應與使用自己的指標「基於單字重要性的文檔相似度」建立的事實進行比較(無線資訊資料管理)。據 Iris.ai 稱,這是一個“用於計算科學文檔分析的文檔相似性/差異的新的快速且可擴展的方法”。新創公司自動化並加速比較過程對事實的回答。
下一步,公司將重點回應的一致性由人工智慧透過檢測相關或不相關數據的存在來提供。研究者使用展示資料之間關係的知識圖。這些突顯了人工智慧模型在產生回應時所經歷的所有步驟。一旦流程被打破,新創公司的系統就可以更容易發現人工智慧何時開始脫軌並產生錯誤。
“可以更早地識別和治療所有領域幻覺的根本原因”,Victor Botev 晉級。
訓練資料的重要性
透過結合這些不同的技術,Iris.ai 相信它能夠顯著降低幻覺發生率。在內部測試這些技術後,這家新創公司發現錯誤急劇下降。不幸的是,這種創新有其限制。據奧斯陸公司稱,它更適合用於研究的模型。事實上,使用該系統的研究人員可以從使用該系統的聊天機器人發表的評論中退一步。對於向公眾開放的人工智慧模型的對話者來說,情況並非總是如此。
這就是 Iris.ai 推薦的原因密切注意所使用的數據形成語言模型。透過選擇過濾和手工挑選的訊息,並選擇“一種編碼語言”,理論上可以減少模型開始解釋錯誤的情況。與支援大多數模型的文字資料不同,該程式碼不受解釋。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 下一個網絡