不可否认的是先进、强大、智能,并且提供比任何其他技术更多的功能或特性,但请记住,它仍然是幻觉并分享错误信息。人工智能聊天机器人总是能够在用户提出问题时与他们分享答案,这导致许多人越来越喜欢这项技术作为搜索引擎的替代品。
然而,虽然人工智能可以回答,但它有时可能会给用户带来幻觉或捏造信息,只是为了不“辜负”那些提出问题的人,但现在是时候回归依赖真实新闻和合法来源而不是机器了。
人工智能聊天机器人仍在产生错误信息、假新闻的幻觉
人工智能聊天机器人仍然倾向于分享错误信息,这仍然是现代世界最大的现象之一,如此先进的东西为何会为了回答问题而创建虚假或捏造的数据?然而,他们产生幻觉的真正原因并不完全是人们所期望的,特别是人们可能认为聊天机器人只想取悦他们的主人,也就是人类,并避免空手而归。
在一份报告中边缘即使在最近的情况下,人工智能仍然处于幻觉中,一些知名人士依赖 OpenAI 的 ChatGPT 等来获取新闻和信息,尽管它们存在明显的问题。尽管人工智能已经可以访问互联网,并且正在构建更先进的模型,这些模型可以理解上下文或提供“推理”,但即使对问题进行了许多修复或解决方案,聊天机器人仍然可能会回到幻觉。
原因有很多AI软件会产生幻觉,这包括缺乏上下文理解、错误的提示、无法访问更新的数据、培训不足以及更多仍然导致一个答案:糟糕的编程。可以肯定地说,目前用户在使用人工智能聊天机器人等时应该保持警惕,因为他们仍然有可能产生幻觉,尤其是在目前的状态下。
是时候停止使用人工智能作为搜索引擎了,新闻来源
这些假期可能是人工智能的重要时刻,因为 OpenAI 和谷歌等公司展示了他们的最新模型,但尽管取得了这些进步,但仍然存在根本问题。因此,用户仍然应该依赖人类撰写的真实新闻,尤其是来自可信来源的新闻,特别是因为它们更加可信、可靠和安全。
来自值得信赖的出版物的真实新闻仍然依赖于研究、合法来源和证据来支持他们的说法,但仍然有理由保持警惕,因为其他网站依靠人工智能为他们创建文章。
人工智能及其幻觉
OpenAI 继续前行以及本系列中的其他项目,该公司展示的是他们的人工智能的进步,因为它可以与用户“推理”,这使得它比当前的 GPT 先进得多。现在,如果订阅了 ChatGPT Pro,用户就有机会访问它,但那些处于较低级别或可以免费访问的用户仍然可以获得 GPT-4o。
此外,谷歌还发布了Gemini 2.0,这是其著名的多模态人工智能的最先进版本,供公众使用,该公司还推出了其实验模型这是它对 OpenAI 的“推理”模型的答案。
然而,尽管取得了所有这些进步,聊天机器人下方仍然有一个警告,称它们的响应可能会出错。