«大型語言模型 (LLM) 不區分事實與虛構»:牛津網路研究所的三位研究者在發表於《自然人類行為11 月 20 日星期一,關於在科學領域使用法學碩士的危險。他們恐懼的對象:「的幻覺人工智慧(IA)“, 期限 ”幻覺» 指出人工智慧系統所犯的錯誤。法學碩士是語言模型ChatGPT 或其他對話代理所基於的,能夠產生文字、程式碼或圖像。然而,網路使用者過於信任這些模型,認為它們是可靠的資源,類似人類,這對牛津網路研究所的研究人員表示遺憾。
所犯的錯誤聊天GPT、巴德和其他人很多:首先可以透過這些模型的訓練方式來解釋它們。事實上,這些系統的形成得益於在線上收集的大量數據。這些數據可能是虛假資訊、觀點或虛構。另一個問題:法學碩士的設計是“提供有用且令人信服的答案,但不保證其準確性或符合事實(…)»。
法學碩士不應被科學家用作知識來源
除此之外,我們也被引導去信任他們。我們將它們視為“說真話的人»,他們繼續。文章合著者、牛津互聯網研究所研究主任布倫特·米特爾施塔特(Brent Mittelstadt) 教授表示,這是因為聊天機器人會以對話的語氣回答任何問題,並以精心編寫、激發信心的文本來回答。牛津大學新聞稿。結果 : ”使用者很容易相信答案是準確的,即使它們沒有基於任何事實或呈現有偏見或部分事實的版本“,他解釋道。
研究人員表示,這足以引起人們對科學未來的嚴重擔憂。教授們表示遺憾,科學界在任何情況下都不得使用法學碩士作為知識來源,有時確實會出現這種情況。 “我認為 ChatGPT 和語言模型是非常不可靠的研究助理。他給我的一切,我總是檢查並確保它是真的»,Brent Mittelstadt 強調,接受採訪歐洲新聞報,11 月 20 日星期一。
虛假發明參考文獻
因為什麼造成了問題,這些不是幻覺。粗魯的「 的詩人或聊天GPT。這些看似正確,但事實並非如此。有時人工智慧生成的內容是“稍微錯誤或稍微有偏見,或者你需要特定的專業知識才能說它是錯誤的», 向我們的同事報告教授。碰巧,科學文章或論文的引用完全是由會話代理發明的。 “如果你不回去尋找,你不會意識到這實際上是一件完全捏造的東西。或者參考文獻可能是正確的,但它可能會為您提供有關文章內容的不正確信息»,他繼續在歐洲新聞台報道。
對於科學家來說,模型的唯一使用不會損害科學,就是將其用途限制在基於可靠數據的執行命令上。使用者可以為模型提供數據適當且經過驗證(由他們自己):然後他們可以要求人工智慧系統將它們轉換為摘要、流行文字、圖形或程式碼。他們寫道,結果因此很容易驗證。但文章作者堅持認為,科學家不應依賴模型本身作為知識來源。
«如果法學碩士被用來製作和傳播科學文章,可能會造成嚴重傷害。»,桑德拉·沃赫特 (Sandra Wachter) 警告說,牛津大學引用的文章的合著者。
使用法學碩士作為資訊來源意味著“產出不可靠的作品”
然而,研究人員並沒有完全拒絕法學碩士。他們相信這些模型將有助於“無疑» 科學工作。但他們認為,整個社區必須負責任地使用它們。這並不是第一次發出這項呼籲謹慎的訊息,尤其是在科學領域。 2023年初,自然最重要的科學期刊之一,已經對 OpenAI 的對話代理 ChatGPT 在研究中的使用感到擔憂,並解釋說該工具有時被用來產生部分文章或科學參考文獻的研究,其中可能包含許多錯誤。
«研究界最擔心的是,學生和科學家可能會將法學碩士生成的文本冒充為自己的文本,或者以簡單化的方式使用法學碩士(例如進行不完整的文獻綜述)並產生不可靠的工作»,《自然》雜誌在其上寫道網站網址,2023 年 1 月 24 日。她也澄清說,任何人工智慧工具都不會被接受為研究文章的署名作者。
來源 : 自然人類行為