Chatgpt是由Microsoft资助的Startup Openai制作的新的人工智能(AI)聊天机器人。该系统不仅是机器学习的另一种产品,还以为提交的问题提供深刻而几乎具有人类的答案。
这个广泛的语言模型由Openai旨在通过提供有关各种主题的知识并协助问答会议来帮助用户。
AI工具构成了学术欺诈的风险
现在,来自世界各地的用户正在为该AI产品提供很多吸引力。实际上,该工具的CHATGPT登录页面一致地通知用户,有许多人一次使用它,因此无法接受任何请求。
随着OpenAI继续扩展其系统,原型AI通常会经历高流量。
同样重要的是要注意,该系统偶尔可能会产生不适当或有偏见的内容以及不准确或误导性信息。这也不是要提供建议。
但是,不久之后,该工具就变得更加先进和可靠,尤其是对于有论文家庭作业或大学生写科学论文的中学生而言。这是现实:学生将尝试AI为他们提供学校作品。这对学术组织以及窃软件构成了挑战。我们在哪里使用AI生成的文本来划清界限?
当被问及如何了解所有内容时,AI向我们解释了它。 CHATGPT取决于OpenAI的更新和改进,其提供信息的能力仅限于其先前的知识库。
Turnitin人工智能副总裁Eric Wang告诉彭博Chatgpt展示的是一个巨大的飞跃,窃探测器服务背后的人们因其能力而措手不及。
王说,就目前而言,教师和Turnitin软件都应轻松识别Chatgpt的答案。该服务包含许多事实错误,其语言模型倾向于生成线性句子,并选择广泛的,突出的单词,而不是学生会选择的偶尔较窄的词汇。
这些早期的畸变产生了信号,表明转弯和其他反熟悉的工具可能能够检测到。但是,对于一家硅谷初创公司的AI驱动的聊天机器人来说,这足够了,该公司仅从Microsoft Corp获得了10亿美元的资金?
查看可能的解决方案
随着欺诈问题的兴起,Openai Creator认为,现在是时候在AI生成的文本上贴上水印以确保系统安全了。
根据TechCrunch,一名OpenAI访问研究人员正在研究一种方法,以“从统计上为文本[AI系统]的输出水印”。计算机科学教授斯科特·亚伦森(Scott Aaronson)在演讲中指出,每当系统生成诸如chatgpt之类的文本时,该工具都会包含一个“难以置信的秘密信号”,以揭示内容的来源。
Turnitin的首席产品官Annie Chechitelli说,另一个解决方案是将时事的上下文添加到编写作业或要求学生记录自己写的内容的情况下。
有趣的是,那里的某个地方还有一个人工智能为此。