
一項新的研究警告說,(AI)可能正在侵蝕用戶的批判性思維能力並使他們使他們變得愚蠢。
這項研究 - 對Microsoft和Carnegie Mellon University進行的商業,教育,藝術,行政和計算工人的一項調查,發現那些最信任AI助手的準確性的人對這些工具的結論持批判性思考不那麼嚴格。
就其本身而言,這並不令人驚訝,但是它確實揭示了AI在我們生活中日益增長的存在中潛伏的陷阱:隨著機器學習工具贏得了更多的信任,它們可能會產生危險的內容,而危險的內容會被忽視。研究人員將在CHI關於計算系統中人為因素的會議本月晚些時候,已經發布了紙在Microsoft網站上尚未經過同行評審。
研究人員在研究中寫道:“使用不當,技術可以而且確實會導致應保留的認知能力的惡化。” “自動化的一個重要具有諷刺意味的是,通過對常規任務進行機械化並給人類用戶留下異常處理,您可以剝奪用戶的常規機會來實踐他們的判斷力並加強其認知肌肉,從而在出現例外時會造成腐敗和毫無準備。”
為了進行這項研究,研究人員通過眾包平台多產,向319名知識工人(通過其專業知識產生價值的專業人員)取得了聯繫。
有關的:
受訪者(從社會工作到編碼的工作角色)被要求分享三個示例,說明他們如何在工作中使用生成性AI工具(例如Chatgpt)。然後,他們被問及他們是否聘請了批判性思維能力來完成每項任務,並且(如果是)他們是如何完成的。他們還質疑他們在沒有AI的情況下完成任務的努力以及對工作的信心。
結果表明,應用於AI輸出的自我報告的審查急劇下降,參與者表示,對於40%的任務,他們沒有使用任何批判性思維。
這遠非唯一指出數字依賴對人類認知的有害影響的證據。 Chatgpt最常見的用戶已被證明已經成長為聊天機器人,以至於花費時間可能會導致戒斷症狀,而諸如Tiktok上的短片視頻(例如減少 注意跨度和特技增長與信息處理和執行控制有關的神經電路。
這些問題似乎更多在年輕人中突出,其中AI的採用是更普遍,以AI通常用作的手段寫論文並繞開推理的需要批判性。
這不是一個新問題 - Google效果由於用戶將知識外包給搜索引擎,已經註意到了數十年 - 但它確實強調了對我們委派的心理任務進行一些識別的重要性,以免我們失去完全執行它們的能力。
研究人員寫道:“隨著知識工作者越來越多地從任務執行轉變為使用Genai時,數據表明了認知工作的轉變。” “令人驚訝的是,儘管AI可以提高效率,但它也可能會降低關鍵參與度,尤其是在常規或較低的賭注任務中,在這些任務或較低的任務中,用戶只是依靠AI,引起了對長期依賴的擔憂並減少了獨立問題解決方案。”