ChatGPT 短暂地失去了理智。几个小时以来,人工智能产生了荒谬且不连贯的反应。面对目瞪口呆的用户,聊天机器人甚至开始讲述诗意的……甚至是色情的故事。 OpenAI 解释说,一个错误扰乱了人工智能组织语言的方式。
2024 年 2 月 20 日这个星期二,聊天GPT开始表现得非常奇怪。许多用户意识到生成式人工智能生成的句子毫无意义。在 Reddit 等社交网络上,有大量互联网用户的评价,他们对聊天机器人的反应感到非常惊讶。
ChatGPT 短暂关闭
正如屏幕截图所示,人工智能的评论通常完全无法理解。通常,ChatGPT 响应在之前正常开始陷入荒唐。对于 AI 用户来说,所有对话“很快就变成了三个小时的大废话”。当被问及计算机的定义时,语言模型回答如下:
“他的所作所为就像为国家创作了一幅精美的艺术画布,一只科学的老鼠,一幅悲伤的少数人的简单画作,最后,世界艺术之家,仅在遗骸中的一件作品中。像时间这样的现实世界的发展是计算机作为复杂角色的深度»。
互联网用户一半好笑,一半担心,将 ChatGPT 的反应与中风患者的反应进行了比较。在某些情况下,人工智能已经开始混合语言或说出值得中世纪诗歌的句子或一个奇妙的故事。对于某些人来说,人工智能就像闹鬼一样。总之,那天这个模型完全没用。
“在一个简单的烹饪食谱上,ChatGPT 生成了一个正确的答案,它慢慢地变成了莎士比亚式和色情的东西,并以彻底的疯狂结束””,Reddit 上的另一位互联网用户作证说。
OpenAI 揭示 ChatGPT 危机的原因
受到这些众多证词的提醒,OpenAI 很快确认了故障的存在。该初创公司宣布正在调查问题的根源。开发商及时发现并纠正了这一问题。在发布的消息中儿子网站,OpenAI 揭示了“用户体验优化”是人工智能神经崩溃的根源。显然这次更新有“在模型处理语言的方式中引入了一个错误”。
正如 OpenAI 所解释的,ChatGPT 与所有生成式 AI 一样,“通过随机抽样单词生成答案”在基于概率。为了回答您的问题,聊天机器人仅依赖于您初始查询后最可能的单词序列。每个单词都由一个令牌表示,这是人工智能模型处理的最小数据单元。令牌在人工智能模型如何理解和生成文本方面发挥着至关重要的作用。 OpenAI 指定数字对应于标记,标记本身对应于单词、字符或单词的一部分(例如音节或子词)。
在这种情况下,一个错误中断了“模型选择这些数字的步骤”来制定你的答案。更新后,“模型选择了稍微错误的数字,从而产生了毫无意义的单词序列”。这种糟糕的数字选择导致了糟糕的词语选择,产生了毫无意义的句子。
ChatGPT 经历的危机让人回想起微软基于 GPT 模型的聊天机器人 Bing Chat 的诞生。在与互联网用户的第一次互动中,该机器人以其不稳定的评论而引人注目,时而愤怒、仇恨或爱。 Bing甚至创造了大约十个邪恶人物,包括来势汹汹的毒液,在微软纠正这种情况之前。美国公司补充道一个开关,让您限制或释放创造力根据需要使用 Bing Chat。
Opera One - AI 驱动的网络浏览器
作者:歌剧
来源 : 技术艺术