滚动浏览新闻网站时,很难不在某个地方看到“ChatGPT”。自 2022 年 11 月 20 日公开发布以来,这款早熟的聊天机器人每月活跃用户数已达 1 亿,并且在 Google 的一些搜索次数最多的术语中的排名也飙升。
尽管它很受欢迎,但很少有人能立即告诉你 ChatGPT 中的“GPT”代表什么:它是“生成式预训练 Transformer”。
开发者, ChatGPT 是一个使用人工智能的计算机程序()有与人类用户基于文本的对话。有任何问题都可以问它()或者向它提出请求,ChatGPT 会以一段感觉非常自然且像人类一样的文本块进行响应。
从技术上讲,它是一个基于语言模型的大型聊天机器人,这意味着它会输入大量基于文本的数据(例如书籍、新闻文章和网页),从中学习如何构建句子。
它可用于各种目的,例如编写计算机代码、充当虚拟助理聊天机器人、内容生成,甚至撰写新闻文章(带有)。
带着一定的讽刺意味,我们询问了 OpenAI给出术语“生成式预训练 Transformer”的细分。它回答说:
“生成式预训练 Transformer”是一个描述语言模型架构的关键特征和特性的术语。我们来分解一下各个组成部分的含义:
1)生成性:在自然语言处理的背景下,“生成性”意味着模型能够生成类似于人类语言的新文本。它可以根据训练期间学到的模式生成连贯且适合上下文的句子、段落或较长的文本。
2)预训练:“预训练”是指在包含来自互联网或其他来源的大量文本的大型数据集上训练模型的初始阶段。在预训练期间,模型学习根据前面的单词预测句子中的下一个单词。此过程使模型能够捕获数据中存在的统计模式和关系。
3)Transformer:“Transformer”是 Vaswani 等人在论文“Attention Is All You Need”中介绍的一种特定类型的深度学习架构。 2017年。它利用自注意力机制并行处理输入序列,使模型在生成输出时能够考虑输入中不同单词的重要性。由于能够处理远程依赖关系和并行化能力,变压器在自然语言处理任务中变得很流行。”
说得好,ChatGPT。请不要抢我的工作。
除了 OpenAI 的 ChatGPT 之外,还有其他一些 GPT。有彭博GPT,它使用与 OpenAI 的 ChatGPT 类似的 AI 技术,但经过了与金融和金融行业相关数据的专门训练。还有 GPT-Neo,这是一种受 OpenAI 的 GPT-3 启发的开源大型语言模型。
目前,OpenAI 和 ChatGPT 是“生成式预训练 Transformer”领域最知名的名字,但还有很多其他公司在争夺头把交椅。
所有“解释者”文章均由发布时正确无误。文本、图像和链接可能会在以后进行编辑、删除或添加,以保持信息最新。