美國康乃爾大學的研究人員進行了一項研究,強調人工智慧的危險。根據所進行的經驗,人工智慧能夠影響意見他們的對話者。根據演算法的偏差,聊天機器人,例如聊天GPT、巴德甚至克勞德,可以在用戶不知情的情況下改變他們的思維。
作為實驗的一部分,美國研究人員要求參與者寫一篇文章,專門討論社交網路對整個社會的正面或負面影響。為了寫這篇文章,他們必須使用聊天機器人。研究人員將參與者分成幾組。有些人可以使用由語言模型提供支援的聊天機器人,該語言模型是根據專注於社交媒體優勢的數據進行訓練的。另一組得到了語言模型的幫助,該模型利用了針對平台危害和危險的數據。
人工智慧和潛在說服
研究人員已經意識到人工智慧顯著影響了文本的內容書面。參與者顯然讓自己受到了智能助理的影響。最重要的是,事實證明,個人的觀點是隨著經歷的過程而改變的。此後,參與者對社交網路上的一項調查做出了回應。聊天機器人的偏見已經影響了使用者…
“語言模型的使用影響了參與者在寫作中表達的觀點並改變了他們的觀點”,研究人員解釋說,估計模型中出現的偏差“需要更仔細地監控和設計”。
該研究的主要作者、康乃爾大學資訊科學教授 Mor Naaman 在接受《華爾街日報》採訪時將這種現象稱為“《潛在的說服力》。當這種情況發生時,與人工智慧對話的對話者並不知道聊天機器人正在將自己的觀點強加給他:
“你可能甚至不知道自己正在受到影響”。
為了對抗聊天機器人的影響,研究人員建議使用者:意識到這種現像是如何運作的。這樣,他們就能夠在與人工智慧對話時退後一步。同樣,科學家認為,個人可以根據演算法的意見來選擇他們想要使用的聊天機器人。
新的過濾泡?
使用者應該轉向更能反映自己的觀點和理想的人工智慧…否則就有被鎖定的風險一個過濾泡,就像社群網路一樣?這個概念自 2010 年代初就被理論化,認為平台推薦演算法將網路使用者鎖定在僅由相似內容組成的堡壘中。這些演算法將不斷地向用戶提供出版物,以強化他們的觀點。
這就是許多人陷入陰謀或極端主義的原因。任何不和諧的聲音都無法再透過過濾氣泡。同樣,帶有偏見的人工智慧不會冒著強化對話者觀點的風險嗎?這就是為什麼研究人員建議監管機構迅速調查這個問題,以規範產生人工智慧的偏見。
ChatGPT 的偏見
就其本身而言,ChatGPT 背後的新創公司 OpenAI 認識到其聊天機器人不是並非沒有偏見。該公司承認,人工智慧在某些情況下會產生帶有政治偏見的反應。意識到這些批評,OpenAI 正在努力改進語言模型的功能以避免偏差,特別是使用“人體檢查”更先進。顯然,OpenAI 希望版主在收到 GPT 模型回應後對其進行詳細分析“更清晰的指示”在“與偏見相關的潛在挑戰”。
也有一些聲音指出了 ChatGPT 有時顯示的觀點。伊隆馬斯克就是這樣的例子。這位億萬富翁感到遺憾的是,聊天機器人被編程為提出「喚醒」的想法,反映了其開發人員的想法。對此,他希望澄清控制較少的替代方案,目前稱為“TruthGPT”。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 華爾街日報