日前,羅布‧莫里斯 (Rob Morris),Koko 創辦人一個旨在幫助患有心理健康問題的人的線上平台,公佈了一個令人驚訝的消息。經理透露曾使用過聊天GPT,OpenAI的人工智慧,提供“為約 4,000 人提供心理健康支持”。
我們使用 GPT-3 為大約 4,000 人提供了心理健康支持。這是發生的事情👇
— 羅布‧莫里斯 (@RobertRMorris)2023 年 1 月 6 日
Koko 設計於 2015 年,允許一般使用者提供心理援助患有憂鬱症的人。這些志工透過 Discord 伺服器 Koko Cares 使用基本的聊天機器人進行連線。在回答了一系列基本問題後,有困難的人可以與志工交談。然後,這將免費提供量身定制的支援。
L'empathy「怪異」deChatGPT
作為實驗的一部分,Koko 向志願者提供了使用ChatGPT 產生的反應與用戶溝通。人工智慧的使用純粹是可選的。如果 ChatGPT 的回應被認為不合適,志工就會接手。在測試中,聊天機器人直接整合到新創公司的 Discord 伺服器中。
「我們採用了『副駕駛』的方式,由人類根據需要監督人工智慧。我們對大約 30,000 條訊息執行了此操作 »,指定羅布·莫里斯。
最初,實驗給了令人鼓舞的結果。 Rob Morris 表示,ChatGPT 寫的訊息比志工自己寫的文字更受讚賞:
“由人工智慧(並由人類監督)編寫的訊息的評分明顯高於僅由人類編寫的訊息”。
錦上添花的是,將 ChatGPT 整合到 Koko 的 Discord 中使將反應時間縮短一半,這在最緊急的情況下至關重要。不幸的是,結果很快就完全改變了“人們了解到這些訊息是由機器共同創建的”。一旦人工智慧的用途風靡起來,“模擬的同理心看起來很奇怪、空虛”。這就是 Koko 首選禁用 ChatGPT 的原因。
「機器沒有人類的生活經驗,所以當它們說『這看起來很難』或『我明白』時,似乎不真實。 [……]他們不會花時間來想你。 3 秒內生成的聊天機器人響應,無論多麼優雅,不知何故似乎很便宜”「Koko 的創辦人解釋道,他是普林斯頓大學心理學畢業生,曾任麻省理工學院媒體實驗室研究員。
ChatGPT 發現自己處於爭議的中心
莫里斯的宣布很快就引起了軒然大波一場爭議。在 Twitter 上,網路使用者認為 Koko 應該將這個實驗程式告知其用戶。這尤其是幾位律師和道德專家的觀點,他們指出美國正在密切監視這些做法。事實上,未經美國境內明確同意,禁止對人體進行研究。法律要求研究計畫的所有參與者都必須簽署一份法律文件。
美國機構審查委員會(IRB)前主席丹尼爾·肖克斯(Daniel Shoskes)在回應推特貼文時甚至建議莫里斯聯繫律師:
“您在未經 IRB 批准或豁免的情況下對弱勢群體進行了人體受試者研究(您不能單獨決定)。”
除了法律方面,一些專家也將矛頭指向實驗的危險性。華盛頓大學語言學教授 Emily M. Bender 在接受 Vice 採訪時認為,“有害的建議”在最具爆炸性的情況下是非常真實的:
「語言模型沒有同理心,無法理解它們所產生的語言,也無法理解它們所處的情境。但他們產生的文本似乎是可信的,因此人們可能會賦予它意義。
此外,ChatGPT 的使用可能違反Koko明確承諾在其使用條件下。在其 Discord 上,該組織確保網路使用者能夠接觸到«真正懂你的人”,哪些不是«治療師,不是輔導員,只是像你這樣的人”。
為了為自己辯護,羅布莫里斯指出 Koko Cares 的用戶不是從未與 ChatGPT 連接過。正如所承諾的那樣,尋求幫助的網路使用者可以與人進行交流。另一方面,他的反應可能是由人工智慧產生的。在此背景下,ChatGPT更多地充當志工的助手,以提高志工的效率。 Koko 的創辦人補充說,這家新創公司不需要遵守現行有關研究的規則,認為沒有使用個人數據,也沒有計劃公佈結果。
請注意,Koko 在人工智慧方面並不是新手。自成立以來,該平台利用人工智慧對尋求支援的不同類型的用戶進行組織和分類。 Koko 特別依靠機器學習來識別處於危險中的個人。然後,Koko 根據人工智慧感知到的困境部署適當的資源。
正是得益於人工智慧,這家新創公司得以成功並獲得了資金。 2016 年,Koko 聯合創始人 Fraser Kelton 解釋說,Koko Cares 旨在將«從集體智慧到人工智慧,改善人們的情緒福祉 »。考慮到其最初的目標,Koko 迅速考慮將 ChatGPT 整合到其平台中也就不足為奇了。
近幾個月來,生成式人工智慧產生了巨大的熱情,無論是站在科技巨頭這邊、普通用戶和網路犯罪分子。 ChatGPT 引領的革命也讓教師教授們日子不好過,面對AI寫的作業爆炸。
來源 : 副