日前,Koko的創始人Rob Morris這是一個旨在幫助患有心理健康問題的人的在線平台,這是一個驚人的啟示。領導者揭示了使用過的chatgpt,Openai的人工智能,以提供“大約4,000人的心理健康支持”。
我們為大約4,000人提供了心理健康支持 - 使用GPT-3。這是發生的事情👇
- 羅布·莫里斯(Rob Morris)(@robertrmorris)2023年1月6日
Koko在2015年設計,允許普通用戶提供心理幫助給有抑鬱症的人。這些志願者使用Discord Server Koko Cares使用基本的聊天機器人進行聯繫。在回答了一系列基本問題之後,一個困難的人可以與志願者交流。然後,這個免費提供自定義支持。
L'Enganter«怪異»duatgpt
作為實驗的一部分,科科向他的志願者提議使用chatgpt產生的答案與用戶對話。人工智能的使用純粹是可選的。如果Chatgpt的回應被認為不適合適合,則志願者接管了。對於測試,將聊天機器人直接集成到啟動的Discord服務器中。
“我們使用了一種“ co -pilot”方法,如有必要,人類對AI進行監督。我們在約30,000條消息上進行了操作”,指定Rob Morris。
首先,實驗給出了令人鼓舞的結果。根據羅布·莫里斯(Rob Morris)的說法,Chatgpt寫的信息比志願者本身所寫的文本更為讚賞:
“ AI(和人類監督)所構成的信息比僅由人類撰寫的信息要好得多。”。
錦上添花將響應時間減少一半,這在最緊急的情況下至關重要。不幸的是,結果在“人們了解到消息是由機器造成的”。一旦發現了人工智能的使用,“模擬同理心似乎很奇怪,空虛”。這就是為什麼Koko更喜歡停用Chatgpt的原因。
“這些機器沒有人類的經驗,所以當他們說“它看起來很難”或“我理解”時,這似乎是不真實的。[…]他們不花時間思考您。在3秒鐘內產生的聊天機器人響應既優雅,似乎便宜,”,解釋說,普林斯頓大學心理學畢業的Koko的創始人,也是麻省理工學院媒體實驗室的前研究員。
chatgpt是爭議的核心
莫里斯的公告很快引起了爭議。在Twitter上,Internet用戶認為Koko應該已將此實驗計劃的用戶告知其用戶。這尤其是倫理學的幾位律師和專家的看法,他們記得美國密切監視這些做法。確實,禁止對人類受試者進行研究,而無需在美國土壤上獲得明確的同意。法律規定,所有參與者在研究計劃中籤署了法律文件。
為了回應線程Twitter,美國研究倫理的前董事長丹尼爾·霍斯克斯(Daniel Shoskes),機構審查委員會(IRB),甚至建議莫里斯(Morris)與律師聯繫:
“未經IRB的批准或豁免,您已經對弱勢人口的人類受試者進行了研究(您不能單獨決定)。”
除了法律方面,一些專家指出了手指實驗的危險性。華盛頓大學語言學教授Emily M. Bender受到質疑,認為“有害建議”作為爆炸性最大的情況的一部分是非常真實的:
“語言模型沒有同理心或對他們產生的語言的任何理解,或者對它們所處情況的任何理解。但是它們產生的文本似乎是合理的,因此人們可能會將其賦予意義。”
此外,使用chatgpt可能會違反Koko提出的明確承諾在其使用條件下。在他的不和諧上,身體確保將用戶接觸«真正了解你的真實人”,不是«治療師,而不是顧問,只是像你這樣的人”。
為了捍衛自己,羅布·莫里斯(Rob Morris)指定Koko關心的用戶不是從未與chatgpt有關。如所承諾的,尋求幫助的用戶可以與人對話。另一方面,它的反應可能是由人工智能產生的。在這種情況下,Chatgpt是提高效率的志願助理。 Koko的創始人補充說,這家初創企業不需要在研究方面遵守規則,認為沒有利用個人數據,並且未提供結果的發布。
請注意,在人工智能方面,科科不是新手。自成立以來,該平台已使用AI來組織和分類不同類型的用戶以搜索支持。科科特別依賴於自動學習識別有風險的人。然後,Koko根據AI所感知到的困擾,建立了改編的資源。
只有由於人工智能,初創企業才設法做到並獲得資金。 2016年,科科(Koko)的創始人弗雷澤·凱爾頓(Fraser Kelton)解釋說,科科(Koko)的關心旨在交往«通過人工智能的集體智慧來改善人們的情感幸福”。鑑於其最初的目標,Koko迅速研究了Chatgpt與其平台的集成並不感到驚訝。
最近幾個月,生成的人工智能也引起了巨大的熱情在科技巨頭的一邊,普通用戶和網絡犯罪分子。 Chatgpt領導的革命也將艱苦的生活帶給了老師和老師IA撰寫的家庭作業的爆炸。
來源 : 副