生成的ai,aschatgpt或Google bard,即將破壞許多活動部門。法律領域不會逃脫它。根據明尼蘇達大學進行的測試,Chatgpt也很聰明成功的大學法律考試。
聊天機器人提供的可能性使一些律師迅速轉向AI協助他們的工作。就是這樣哥倫比亞法官。這是一個使用Chatgpt做出棘手的判決。具體而言,聊天機器人被用來組織和構建治安法官的研究。對於法官來說,對話機器人原來是有效的助手。
這個律師不應使用chatgpt
不幸的是,語言模型並不總是取決於其對話者的野心。正如我們在《紐約時報》報導的同事中,一位名叫史蒂文·施瓦茨(Steven A. Schwartz)的律師以他為代價理解這一點。律師負責代表一名針對哥倫比亞航空公司Avianca投訴的人。申訴人在飛往紐約的飛行期間被一輛專門用於行李的金屬手推車受傷。
為了說服法官不要拒絕此案,施瓦茨提出了一份10頁的報告,強調了六個類似的情況。正如阿維安卡(Avianca)所聲稱的那樣,這些是要說服地方法官不要埋葬訴訟程序,超過了限制期。為了寫論點,律師依靠chatgpt。
他特別要求生產者通過從他的數據語料庫中抽出類似的案例。聊天機器人通過從頭開始發明業務來回應他的要求。 AI已經產生錯誤的報價,錯誤的例子和虛假的司法決定。通過諮詢該文件,Avianca律師沒有發現提到的事件的絲毫痕跡。法官隨後進行了調查。他很快注意到文件編號沒有對應。
“提交的六項事務似乎是虛假的司法裁決”,指示法官。
當Chatgpt相信他的謊言時
回到牆上,申訴人的鱷梨透露,他已經使用生成的AI進行了研究。他指定對聊天機器人的質疑是對所傳達的元素的真實性的質疑...並認為所有數據都是真實的。聊天機器人甚至保證可以找到所有引號”在著名的法律數據庫中”。事實並非如此。
顯然,Chatgpt將幾種案例的報價,決定和細節混合在一起,以編寫該文件並根據其對話者的要求將事實調整。回到牆上,施瓦茨保證,他不知道有可能“它的內容可能是錯誤的”。他聲稱後悔“已經使用生成人工智能來完成其法律研究,並且將來永遠不會在沒有絕對真實性的情況下這樣做”答案。律師表明他沒有“欺騙法院或航空公司的意圖”。
這件事說明了生成AI的最大問題。從GPT-4到棕櫚2通過經過羊駝或美洲駝,很可能有«幻覺»。顯然,AIS開始告訴任何事情,產生錯誤的事實並扭曲現實,過多地創造性。因此,重要的是不要盲目依靠聊天機器人的話...
🔴不要錯過任何01net新聞,請關注我們Google新聞等WhatsApp。
Opera One-促進AI的Web瀏覽器
作者:歌劇
來源 : 紐約時報