別作弊。
滾動瀏覽新聞網站時,很難不在某個地方看到“ChatGPT”。 自 2022 年 11 月 20 日公開發布以來,這款早熟的聊天機器人每月活躍用戶數已達 1 億,並且在谷歌一些搜尋次數最多的術語中的排名也飆升。
儘管它很受歡迎,但很少有人能立即告訴你 ChatGPT 中的「GPT」代表什麼:它是「生成式預訓練 Transformer」。
由開發, ChatGPT 是一個使用人工智慧的電腦程式() 具有與人類使用者基於文字的對話。 有任何問題都可以問它()或向它提出請求,ChatGPT 會以一段感覺非常自然且像人類一樣的文字區塊回應。
從技術上講,它是一個基於語言模型的大型聊天機器人,這意味著它輸入了令人難以置信的大量基於文字的資料(例如書籍、新聞文章和網頁),從中學習如何建立句子。
它可用於各種目的,例如編寫電腦程式碼、充當虛擬助理聊天機器人、內容生成,甚至撰寫新聞文章(帶有)。
帶著一定的諷刺意味,我們詢問了 OpenAI給出術語「生成式預訓練 Transformer」的細分。 它回答說:
「生成式預訓練 Transformer」是一個描述語言模型架構的關鍵特徵和特性的術語。 讓我們來分解一下各個組成部分的意義:
1)生成性:在自然語言處理的背景下,「生成性」意味著模型能夠產生類似人類語言的新文本。 它可以根據訓練期間學到的模式產生連貫且適合上下文的句子、段落或較長的文字。
2)預訓練:「預訓練」是指在包含來自互聯網或其他來源的大量文本的大型資料集上訓練模型的初始階段。 在預訓練期間,模型學習根據前面的單字預測句子中的下一個單字。 此過程使模型能夠捕獲資料中存在的統計模式和關係。
3)Transformer:「Transformer」是 Vaswani 等人在論文「Attention Is All You Need」中介紹的一種特定類型的深度學習架構。 2017年。 由於能夠處理遠端依賴關係和並行化能力,變壓器在自然語言處理任務中變得很流行。
說得好,ChatGPT。 請不要搶我的工作。
除了 OpenAI 的 ChatGPT 之外,還有其他一些 GPT。 有彭博GPT,它使用與 OpenAI 的 ChatGPT 類似的 AI 技術,但經過了與金融和金融業相關數據的專門訓練。 還有 GPT-Neo,這是一種受 OpenAI 的 GPT-3 啟發的開源大型語言模型。
目前,OpenAI 和 ChatGPT 是「生成式預訓練 Transformer」領域最知名的名字,但還有很多其他公司在爭奪頭把交椅。
所有「解釋者」文章均由發佈時正確無誤。 文字、圖像和連結可以在以後編輯、刪除或添加,以保持資訊最新。