近幾個月來,許多人都嘗試過像 ChatGPT 這樣的聊天機器人。儘管它們很有用,但也不乏它們產生的例子,咳咳,。現在,牛津大學的一組科學家正在問:是否有合法途徑可以要求這些聊天機器人告訴我們真相?
本文的其餘部分位於付費牆後面。請登錄或訂閱以訪問完整內容。
大型語言模型的興起
在周圍的喧囂聲中人工智能(AI)在過去幾年中似乎達到了新的高度,該領域的一個分支比其他任何分支都獲得了更多的關注——至少對於我們這些關注這一領域的人來說是這樣。。它是大型語言模型(LLM),它利用生成式人工智能對幾乎任何你能想到的查詢產生聽起來怪異的響應。
這喜歡ChatGPT 和 Google 的基於大量數據訓練的模型——這本身就引發了許多問題和– 讓他們能夠理解自然語言查詢並生成連貫且相關的響應。與搜索引擎不同,您不需要學習任何語法來幫助您縮小結果範圍。理論上,您只需像大聲說話一樣提出問題即可。
他們的能力無疑令人印象深刻,而且他們對自己的答案也充滿信心。只有一個小問題——這些聊天機器人在說話時往往聽起來同樣自信。。如果我們人類能夠記住不要相信他們告訴我們的一切,這可能沒問題。
這篇新論文的作者寫道:“雖然我們將機器擬人化的傾向所產生的問題是眾所周知的,但我們將法學碩士視為像人類一樣的說真話的人的脆弱性尤其令人擔憂。”他指的是任何曾經與 Alexa 或 Siri 發生過爭執的人都會清楚地了解這種情況。
“法學碩士並不是為了在任何壓倒性的意義上說實話而設計的。”
很容易為 ChatGPT 提出一個問題,並假設它正在像人類一樣“思考”答案。看起來是這樣,但這些模型實際上並不是這樣工作的。
不要相信你讀到的一切
正如作者所解釋的,法學碩士“是文本生成引擎,旨在預測一段文本中接下來出現的單詞串。”他們的回答的真實性只是在開發過程中判斷模型的一項指標。作者認為,為了給出最“有幫助”的答案,他們常常會過度簡化、產生偏見,甚至胡編亂造。
這項研究的作者絕不是第一個對此發出警報的人,其中一位紙甚至稱這些模型為“胡說八道”。羅賓·埃姆斯利教授是《精神分裂症》雜誌的編輯發布了一個帳戶談到 2023 年 ChatGPT 的經歷時,他說:“我經歷的是捏造和偽造。”該聊天機器人引用了不存在的學術論文,以及一些與查詢無關的論文。其他人已經報告了同樣的事情。
他們可以接受那些有明確、事實答案的問題,而且這一點很重要——這個答案在他們的訓練數據中經常出現。這些模型的好壞取決於它們所訓練的數據。而且,除非你準備好仔細核實從法學碩士那裡得到的任何答案,否則很難判斷這些信息的準確性——特別是因為許多信息不提供其源材料的鏈接或給出任何信心措施。
牛津大學的團隊寫道:“與人類演講者不同,法學碩士沒有任何專業知識或信心的內部概念,而是總是‘盡最大努力’提供幫助並有說服力地回應提出的提示。”
他們特別擔心所謂的“粗心言論”的影響,以及法學碩士的此類反應滲入線下人類對話中可能造成的危害。這導致他們提出一個問題:法學碩士提供者是否有法律義務確保他們的模型真實。
新研究得出了什麼結論?
作者著眼於當前的歐盟 (EU) 立法,發現很少有明確的情況要求組織或個人有義務說實話。那些確實存在的僅限於特定部門或機構,很少適用於私營部門。由於法學碩士採用相對較新的技術,因此大多數現有法規在製定時並未考慮到這些模型。
因此,作者提出了一個新的框架,“為狹義和通用法學碩士的提供者設立一項法律義務,以盡量減少粗心言論。”
你可能自然會問:“誰是仲裁者?”? ”,作者確實解決了這個問題,說目的不是強迫法學碩士走一條特定的道路,而是要求“來源的多樣性和代表性”。從根本上說,他們建議製作者糾正真實性和“樂於助人”之間的平衡,作者認為這過於支持後者。這並不容易做到,但可能是可能的。
這些問題沒有簡單的答案(免責聲明:我們沒有嘗試詢問 ChatGPT),但隨著這項技術的不斷進步,這些問題將成為開發人員必須解決的問題。與此同時,當你與法學碩士一起工作時,可能值得記住作者的這一發人深省的聲明:“他們的目的是參與與人們的自然語言對話,並提供令人信服且有幫助的答案,無論手頭問題的真相如何。”
該研究發表在期刊上英國皇家學會開放科學。









