
一项新的研究警告说,(AI)可能正在侵蚀用户的批判性思维能力并使他们使他们变得愚蠢。
这项研究 - 对Microsoft和Carnegie Mellon University进行的商业,教育,艺术,行政和计算工人的一项调查,发现那些最信任AI助手的准确性的人对这些工具的结论持批判性思考不那么严格。
就其本身而言,这并不令人惊讶,但是它确实揭示了AI在我们生活中日益增长的存在中潜伏的陷阱:随着机器学习工具赢得了更多的信任,它们可能会产生危险的内容,而危险的内容会被忽视。研究人员将在CHI关于计算系统中人为因素的会议本月晚些时候,已经发布了纸在Microsoft网站上尚未经过同行评审。
研究人员在研究中写道:“使用不当,技术可以而且确实会导致应保留的认知能力的恶化。” “自动化的一个重要具有讽刺意味的是,通过对常规任务进行机械化并给人类用户留下异常处理,您可以剥夺用户的常规机会来实践他们的判断力并加强其认知肌肉,从而在出现例外时会造成腐败和毫无准备。”
为了进行这项研究,研究人员通过众包平台多产,向319名知识工人(通过其专业知识产生价值的专业人员)取得了联系。
有关的:
受访者(从社会工作到编码的工作角色)被要求分享三个示例,说明他们如何在工作中使用生成性AI工具(例如Chatgpt)。然后,他们被问及他们是否聘请了批判性思维能力来完成每项任务,并且(如果是)他们是如何完成的。他们还质疑他们在没有AI的情况下完成任务的努力以及对工作的信心。
结果表明,应用于AI输出的自我报告的审查急剧下降,参与者表示,对于40%的任务,他们没有使用任何批判性思维。
这远非唯一指出数字依赖对人类认知的有害影响的证据。 Chatgpt最常见的用户已被证明已经成长为聊天机器人,以至于花费时间可能会导致戒断症状,而诸如Tiktok上的短片视频(例如减少 注意跨度和特技增长与信息处理和执行控制有关的神经电路。
这些问题似乎更多在年轻人中突出,其中AI的采用是更普遍,以AI通常用作的手段写论文并绕开推理的需要批判性。
这不是一个新问题 - Google效果由于用户将知识外包给搜索引擎,已经注意到了数十年 - 但它确实强调了对我们委派的心理任务进行一些识别的重要性,以免我们失去完全执行它们的能力。
研究人员写道:“随着知识工作者越来越多地从任务执行转变为使用Genai时,数据表明了认知工作的转变。” “令人惊讶的是,尽管AI可以提高效率,但它也可能会降低关键参与度,尤其是在常规或较低的赌注任务中,在这些任务或较低的任务中,用户只是依靠AI,引起了对长期依赖的担忧并减少了独立问题解决方案。”