近幾個月來,許多人都嘗試過像 ChatGPT 這樣的聊天機器人。 儘管它們很有用,但也不乏它們產生的例子,咳咳,。 現在,牛津大學的一群科學家正在問:是否有合法途徑可以要求這些聊天機器人告訴我們真相?
大型語言模式的興起
在周圍的喧囂聲中人工智慧(AI)在過去幾年中似乎達到了新的高度,該領域的一個分支比其他任何分支都獲得了更多的關注——至少對於我們這些關注這一領域的人來說是這樣。。 它是大型語言模型(LLM),它利用生成式人工智慧對幾乎任何你能想到的查詢產生聽起來怪異的回應。
這喜歡ChatGPT 和 Google 的基於大量資料訓練的模型—這本身就引發了許多問題和– 讓他們能夠理解自然語言查詢並產生連貫且相關的回應。 與搜尋引擎不同,您不需要學習任何語法來幫助您縮小結果範圍。 理論上,您只需像大聲說話一樣提出問題即可。
他們的能力無疑令人印象深刻,而且他們對自己的答案也充滿信心。 只有一個小問題——這些聊天機器人在說話時往往聽起來同樣自信。。 如果我們人類能夠記住不要相信他們告訴我們的一切,這可能沒問題。
這篇新論文的作者寫道:「雖然我們將機器擬人化的傾向所產生的問題是眾所周知的,但我們將法學碩士視為像人類一樣的說真話的人的脆弱性是特別令人擔憂的。
“法學碩士並不是為了在任何壓倒性的意義上說實話而設計的。”
很容易為 ChatGPT 提出一個問題,並假設它正在像人類一樣「思考」答案。 看起來是這樣,但這些模型實際上並不是這樣工作的。
不要相信你讀到的一切
正如作者所解釋的,法學碩士“是文本生成引擎,旨在預測一段文本中接下來出現的單字串。” 他們的回答的真實性只是在開發過程中判斷模型的指標。 作者認為,為了給出最「有幫助」的答案,他們常常過度簡化、產生偏見,甚至胡編亂造。
這項研究的作者絕不是第一個對此發出警報的人,其中一位紙甚至稱這些模型為「廢話」。 羅賓‧艾姆斯利教授是《精神分裂症》雜誌的編輯發布了一個帳戶談到 2023 年 ChatGPT 的經歷時,他說:“我經歷的是捏造和偽造。” 聊天機器人引用了不存在的學術論文,以及一些與查詢無關的論文。 其他人已經報告了一樣。
他們可以接受那些有明確、事實答案的問題,而且這一點很重要——這個答案在他們的訓練資料中經常出現。 這些模型的好壞取決於它們所訓練的資料。 而且,除非你準備好仔細核實從法學碩士那裡得到的任何答案,否則很難判斷這些資訊的準確性——尤其是因為許多人不提供其來源材料的連結或給出任何衡量標準信心。
牛津大學的團隊寫道:“與人類演講者不同,法學碩士沒有任何專業知識或信心的內部概念,而是總是‘盡最大努力’提供幫助並有說服力地回應提出的提示。”
他們特別擔心所謂的「粗心言論」的影響,以及法學碩士的此類反應滲入線下人類對話中可能造成的危害。 這導致他們提出一個問題:法學碩士提供者是否有法律義務確保他們的模型真實。
新研究得出了什麼結論?
作者著眼於目前的歐盟 (EU) 立法,發現很少有明確的情況要求組織或個人有義務說實話。 那些確實存在的僅限於特定部門或機構,很少適用於私營部門。 由於法學碩士採用相對較新的技術,因此大多數現有法規在製定時並未考慮到這些模型。
因此,作者提出了一個新的框架,“為狹義和通用法學碩士的提供者設立一項法律義務,以盡量減少粗心言論。”
你可能自然會問:“誰是仲裁者?”? ”,作者確實解決了這個問題,他們說,目的不是強迫法學碩士走一條特定的道路,而是要求“來源的多樣性和代表性”。 從根本上說,他們建議創客糾正真實性和「樂於助人」之間的平衡,作者認為這種平衡過於支持後者。 做起來並不簡單,但可能是可能的。
這些問題沒有簡單的答案(免責聲明:我們沒有嘗試詢問 ChatGPT),但隨著這項技術的不斷進步,這些問題將成為開發人員必須解決的問題。 同時,當你與法學碩士一起工作時,可能值得記住作者的這一發人深省的聲明:「他們的目的是參與與人們的自然語言對話,並提供令人信服且感覺有幫助的答案,無論眼前這件事的真相。
該研究發表在期刊上英國皇家學會開放科學。