Chatgpt对头条新闻并不陌生,在过去的几个月中,有一些出色的话题在过去的几个月中为自己起名字。人工智能,建立在GPT-3 GPT-3,利用强化学习模型几乎以对话形式提出的任何问题。
对于绝大多数用户和大众公众来说,Chatgpt是一个新发现的社会偶像。对于学生来说,这是对分级内容的免费通行证,正如最近的新闻中所见证的那样斯坦福大学的学生已经承认在期末考试中使用机器人。对于微软而言,这是一个100亿美元的投资,可以通过Bing转发其计划,并创建一个更强大的搜索引擎以竞争Google。
对于普林斯顿计算机科学教授Arvind Narayanan而言,Chatgpt不过是一个“胡说八道的发电机”,它会炫耀不一致且经常不正确的内容,现在正在将其推向教育领域甚至新闻业。在一个月历史的通讯中,标题为“AI蛇油,“ Narayanan解释了AI的“无法辨别真相”是其主要缺点之一,这个问题似乎已经超过了许多用户的负责人。
Narayanan在介绍中解释说:“ Chatgpt令人震惊地听起来令人信服。 “这意味着,对于当前形式使用Chatgpt对于诸如教育或回答健康问题之类的应用程序的情况是一个坏主意。即使机器人通常给出了出色的答案,有时会失败。它总是令人信服,因此很难说出差异。”
即使是Openai本身也承认Chatgpt不是上帝或知识上士,在其上解释帮助页面机器人“没有连接到互联网,偶尔会产生错误的答案”。该公司强调了Chatgpt如何在2021年以后的事件知识有限,并且“偶尔也会产生有害的说明或偏见的内容”。
Narayanan在接受采访时继续他的想法标记,详细说明了CNET在75多种新闻文章中如何使用Chatgpt的使用方式证明了几个错误。虽然它可以规定对读者非常有害,但鉴于CNET尚未对其使用机器人进行披露,但此处的基本问题是,对AI和技术的工作流和活动的过度依赖越来越稳定,而这些工作流程和活动迄今为止,人类仍然是最有能力的表演。
Narayanan告诉Markup:“这不是恶意的情况,但这是一种危险,我们应该更担心人们在哪里转向它的地方。” “当您将其与该工具没有良好的真理概念相结合时,这是灾难的秘诀。”
尽管有“智能”莫尼克,但AI本质上仍然是人为的。 Narayanan的陈述与大西洋的Ian Bogost提出的类似想法并驾齐驱玩具。 Bogost在他的文章中解释了对Chatgpt的依赖不仅受到其有限的见解和深度的阻碍,而且还可能“导致失去真正的人类联系”。为了使事情变得更加复杂,Bogost没有写那条线 - Chatgpt确实是Bogost。
利用ChatGpt进行日常活动提出了许多道德问题,最突出的问题是真实性。对于那个非常可爱的人,很难看到机器人在不久的将来偷走了我们的工作,而纳拉亚南同意。这样的概念将需要一些时间才能增加外部体重,但是作为记者,教育者甚至医生的语言模型在目前的水平上很难掌握。因此,最好跟随Bogost的鞋子,看看Chatgpt以及类似的AI,而不仅仅是玩耍。
就目前而言。