在最近的法律案件中,加拿大航空在法庭上辯稱,被聊天機器人誤導的客戶不應信任它,聲稱聊天機器人是負責其行為的獨立法人實體。
專家們擔心公司使用法律免責聲明來逃避與AI相關問題的懲罰。隨著預期的AI利用率在各個部門之間的擴大,人們的擔憂正在擴大。
“沒有客戶想要法律。他們受夠了,”Karthik SJ,生成AI公司的產品管理與營銷副總裁會舒適的,在接受采訪中告訴技術時報。 “如果一家公司說它不會支持聊天機器人,這是一個主要的危險信號。如果出現問題,試圖通過說聊天機器人是一個獨立的法人實體來捍衛它是一個失敗的立場。”
卡爾西克(Karthik)表示,公司的責任是確保其AI工具提供準確的信息,並且不能簡單地與AI的行動保持距離。他認為這一切都歸結為問責制。當公司部署AI工具時,它必須站在該工具激發的信息後面,就像支持人類僱員所散佈的信息一樣。
卡爾西克說:“公司的責任是在公司上。系統應進行戰鬥測試以預測各種情況。”他堅持認為,在像生成AI這樣的新興技術的情況下,這是更真實的。 “如果沒有,那麼公司不應使用這些系統。”
華金·利平科特(Joaquin Lippincott)AI雲諮詢公司的首席執行官兼創始人金屬蟾蜍說,由於AI的不可預測性質,使用生成AI引入了全新的道德和法律問題。
Lippincott在接受采訪時對Tech Times說:“這項能夠學習和發展的技術經常表現出無法準確預期的行為,既帶來收益又具有風險。”
在此基礎上,瑞安(Lasa),風險管理公司的首席執行官Nisos生成的AI應用程序說,具有無限自主權創建優惠的生成性AI應用程序,展示了為什麼公司必須測試這一新的新興技術類別的重要性,這不僅是為了安全和濫用,而且還針對意外的後果。
Lasalle在接受采訪時告訴Tech Times:“客戶體驗是公司的反映。” “當用戶真正濫用而真正互動時,他們希望該公司站在報價和客戶治療後面。”
喬斯·雅各布(Joas Jacob)AI測試和記錄公司的首席執行官兼聯合創始人有錄音,加入了其他專家,說公司決定在法律人士背後做出庇護的決定反映了一項經過深思熟慮的戰略。他認為,一家公司選擇不充分測試,不當驗證或無證件的AI表明他們對了解客戶的風險的不屑一顧。
雅各比(Jacobi)以製藥公司的例子為例,他說需要向客戶提供有關其銷售藥物潛在副作用的信息和通知。
雅各比在接受采訪時告訴《科技時報》:“同樣,公司應負責記錄其AI的風險並通過免責聲明向客戶提供信息。”
他指出了加拿大的小聲稱法院裁決反對加拿大航空,建議政府和民間社會支持加入警告,例如通過免責聲明。
但是,Karthik並不認為增加免責聲明是必經之路,因為大多數客戶通常會忽略它們的簡單事實。
Karthik說:“誰會在使用聊天機器人之前閱讀法法人員?沒有人。用戶只會使用聊天機器人,因為那是公司想要的。”
這對利平科特(Lippincott)來說是有意義的,他認為將免責聲明和最終用戶許可協議(EULA)添加到AI機器人中,警告其信息的可靠性會發送矛盾的消息。他說,使用免責聲明和Eulas可能會侵蝕信任,因為用戶可能會將其解釋為該公司本身認為其AI並不完全可靠,並且對其產出缺乏信心。
大多數專家都同意,儘管他們可能會合法保護公司,但免責聲明並沒有幫助建立用戶信任。他們建議,公司應該專注於提高其AI系統的準確性,對其局限性透明,而不是迴避責任感,而不是添加Eulas。卡爾西克(Karthik)說,公司應該記住,儘管吸引新客戶是昂貴的,但損失卻並不需要太多。 “當發生這種情況時,他們會告訴其他人的風險很高。”
雅各比說,雖然法律文本可能會保護公司免於被起訴,但如果AI犯錯誤,它不會保護其免受客戶的損失。 “它也不會保護客戶免受經過測試的AI模型對他們造成的傷害。客戶應該期望公司提供更多的保證來信任他們的AI。”
關於作者:Mayank Sharma是一位技術作家,在分解複雜技術並落後於新聞方面擁有二十年的經驗,以幫助他的讀者掌握最新的流行語和行業里程碑。他在Newsforge,Linux.com,IBM Developerworks,Linux用戶和開發人員雜誌,Linux Voice Magazine,Linux Magazine和HackSpace雜誌上有章程。除技術時代外,他目前的出版物包括Techradar Pro和Linux Format Magazine。跟著他https://twitter.com/geekybodhi