Openai的'深入研究'是最新的(AI)工具波浪并承诺在几分钟之内做什么才能让人类专家完成。
捆绑为Chatgpt Pro和销售作为可以与受过训练的分析师相匹配的研究助理,它自主搜索网络,编译来源并提供结构化报告。甚至得分人类上一次考试(HLE)的26.6%,一个艰难的AI基准,表现不佳许多型号。
但是深入的研究并不能完全符合炒作。尽管它产生了抛光报告,但也存在严重的缺陷。根据记者的说法 谁尝试过,深入的研究可能会错过关键细节,与最新信息斗争,有时会发动事实。

OpenAi标志在列出其工具的局限性时。该公司还说“有时可能会在响应中幻觉事实或做出错误的推论,尽管速度明显低于现有的CHATGPT模型,但根据内部评估。”
不可靠的数据可以滑入毫不奇怪,因为AI模型并不像人类一样“知道”事情。
AI“研究分析师”的想法也提出了许多问题。机器(无论多么强大)可以真正取代受过训练的专家吗?知识工作的影响是什么? AI真的可以帮助我们思考更好,还是只是使完全停止完全思考的更容易?
什么是“深入研究”,它是为了谁?
深入研究是针对金融,科学,政策,法律和工程以及学者,记者和商业战略家的专业人士的推销,深入研究是最新的。代理经验“ Openai已在Chatgpt推出。它有望在几分钟之内进行研究。
目前,深入研究仅适用于美国的Chatgpt Pro用户,每月为200美元。 Openai说它将在接下来的几个月中推广到Plus,Team和Enterprise用户,并计划将来更具成本效益的版本。
与提供快速响应的标准聊天机器人不同,深入研究遵循多步骤的过程来生成结构化报告:
- 用户提交请求。这可能是从市场分析到法律案件摘要的任何事情。
- AI阐明了任务。它可能会提出后续问题以完善研究范围。
- 代理搜索网络。它自动浏览数百种来源,包括新闻文章,研究论文和在线数据库。
- 它综合了其发现。 AI提取了要点,将它们组织成结构化的报告,并引用其来源。
- 最终报告已交付。在五到30分钟内,用户收到了一个多页文档 - 甚至可能是博士学位论文- 总结发现。
乍一看,这听起来像是知识工作者的梦想工具。仔细观察揭示了重大局限性。
- 它缺乏背景。 AI可以总结,但并不完全了解重要的事情。
- 它忽略了新的发展。它错过了重大的法律裁决和科学更新。
- 它使事情变得艰难。像其他AI模型一样,它可以自信地生成虚假信息。
- 它无法从小说中说出事实。它没有区分权威来源和不可靠的来源。
尽管Openai声称其工具与人类分析师相媲美,但AI不可避免地缺乏使良好研究有价值的判断,审查和专业知识。
AI不能替换
Chatgpt并不是唯一只能使用几个提示来搜索网络并产生报告的AI工具。值得注意的是,仅仅是Openai释放后24小时,Hugging Face发布了免费的开源版本,几乎与其性能相匹配。
对“人类水平”研究销售的深入研究和其他AI工具的最大风险是AI可以取代人类思维的幻想。 AI可以总结信息,但是它不能质疑其自己的假设,突出知识差距,创造性地思考或理解不同的观点。

任何AI代理,无论多快,仍然只是一种工具,而不是替代人类智能的替代品。对于知识工作者而言,投资AI无法复制的技能比以往任何时候都重要:批判性思维,事实检查,深厚的专业知识和创造力。
如果您想使用AI研究工具,则有多种负责任的方法。周到的人工智能使用可以增强研究,而无需牺牲准确性或深度。您可能会使用AI来提高效率,例如总结文件,但要保留人类做出决定的判断。
总是验证来源,因为AI生成的引用可能会产生误导。不要盲目地相信结论,而要与信誉良好的来源应用批判性思维和交叉检查信息。对于高风险主题 - 例如健康,,,,正义和民主- 补充AI调查结果。
尽管多产的营销试图告诉我们,但生成的AI仍然有很多局限性。可以创造性地综合信息,挑战假设并进行批判性思考的人将保持需求 - AI尚无法替代它们。
Raffaele F Ciriello,业务信息系统的高级讲师,悉尼大学