Google 使用新模型更新 Vertex AI,擴大覆蓋範圍

Google 通過在 Vertex AI 中提供新模型、更新其 AI 硬件產品以及與其他企業合作,正在邁向生成式 AI 的下一次迭代。

週二,也就是它的第一天 Google Cloud 在下一次會議上,這家科技巨頭表示將通過新的第三方模型擴展其機器學習和生成人工智能平台 Vertex AI,更新其基礎模型並發布新工具以幫助企業最有效地使用其模型。

“我們相信,讓人工智能為每個人提供幫助是我們在未來十年實現使命的最佳方式,” Google 首席執行官桑達爾·皮查伊 (Sundar Pichai) 在主題演講中說道。

“這就是為什麼我們在 CPU 和 GPU 上投資了最好的工具、基礎模型和基礎設施,”Pichai 說道。 Google的微處理器。

GoogleGartner 分析師 Chirag Dekate 表示,此次投資和會議期間推出的新更新顯示了這家云提供商在生成式 AI 競賽中脫穎而出的方式。

模型花園裡的新模型

一種方式 Google Dekate 表示,其與眾不同之處在於其一系列基礎型號。 不僅是 Google的基礎模型 PaLM 2 可用於 Google的 Model Garden,但也包括來自 Anthropic 和 Cohere 等生成式 AI 初創公司的模型。

Google 還透露,Meta 的開源模型 Llama 2 和 Code Llama 現已在 Model Garden 中提供。 Google 通過適配器調整和強化學習支持 Llama 2,使組織能夠利用其數據調整開源模型,同時仍然控制該數據。

同時, Google 阿布扎比政府資助的 科技創新院的獵鷹 – 一個用於研究和商業用途的開源大型語言模型 – 現已在 Model Garden 中提供。

開源和選擇

GoogleFuturum Group 分析師史蒂文·狄更斯 (Steven Dickens) 表示,選擇納入開源模型顯示了開源在生成人工智能競賽中的力量。

“開源開發的力量將勝過某個特定供應商自己可以做的任何事情,”狄更斯說。

Constellation Research 分析師 Andy Thurai 表示,這是因為人工智能和機器學習社區被開源和共享技術所吸引,因為不斷創建和構建新模型可能會很費力。

“這是有原因的 抱臉 太受歡迎了,”他指的是人工智能和機器學習社區。

Dekate 表示,雖然提供開源模型至關重要,但提供不同類型模型的策略為企業提供了選擇。

這種策略並非獨一無二 Google。 AWS 和 Microsoft 還提供不同的生成式 AI 模型選擇。

提供不同的模型生態系統使企業能夠並排查看每個模型並確定哪些模型適合其特定用例。

“歸根結底,最大的模型實際上並不是正確的答案,”德凱特說。 “在許多情況下,較小的、針對特定目的的模型實際上可能更適合您在組織環境中嘗試解決的真正問題。”

為了滿足這樣的需求, Google 還引入了特定領域的基礎模型,例如用於醫療目的的 Med-PaLM 2。

PaLM 2 和 Imagen 更新

除了為模型花園注入新的模型外, Google 更新了自己的PaLM 2模型。

PaLM 現在普遍支持 38 種語言,並且語言模型的上下文窗口明顯更大,因此人們可以在 PaLM 中輸入整本書。

也, Google的文本到圖像擴散模型 Imagen 現在具有新功能:Imagen 的風格調整。

據介紹,該功能將幫助用戶在 10 張圖像內將其圖像與品牌指南保持一致 Google。

Imagen 還包括新的數字水印功能。

擴展與插件

此外,在 Vertex AI 中,雲供應商正在引入 Vertex AI Extensions,這是一組用於擴展的託管開發人員工具,它將模型連接到 API 以獲取實時數據和現實世界操作。

通過擴展,開發人員可以將預構建的擴展連接到企業 API 或構建自己的擴展。 他們可以使用這些擴展來構建生成式人工智能應用程序,例如數字助理、搜索引擎和自動化工作流程。

Vertex AI 具有預構建的擴展 Google BigQuery 和 AlloyDB 等雲服務,它還可以讓開發人員集成 浪鏈,一個用於使用生成式人工智能開發應用程序的開源框架。

Dekate 說,擴展類似於微軟對其代理和插件的方法。 今年早些時候,微軟為開發人員提供了可以連接到消費者和商業應用程序的插件。

“Google 正在採取深思熟慮的方法,”德凱特說。 “他們正在系統地思考建立可持續生態系統的意義。”

供應商通過擴展企業使用的基礎模型來做到這一點 Google 他說,擴展的同時仍保持專有數據的私密性。

其他頂點更新

Vertex AI 搜索和對話現已全面推出。

這些功能之前在預覽版中以 Generative AI App Builder 上的 Enterprise Search 和 Generative AI App Builder 上的 Conversational AI 的形式發布。 Vertex AI 搜索和 Vertex AI 對話幫助組織將企業數據與生成式 AI 基礎模型以及對話式 AI 與信息檢索技術相結合。

對話功能協調由基礎模型支持的聽起來自然的聊天機器人和語音機器人的創建。 組織可以利用網站、文檔、常見問題解答、電子郵件和代理對話歷史記錄中的數據來微調聊天。

同時,Vertex AI Search 使組織能夠建立 Google由基礎模型提供支持的搜索質量、多模式、多輪搜索應用程序。

多輪搜索讓用戶可以提出後續問題,而無需重新開始交互。

企業可以將其輸出建立在企業數據中,或者使用這些數據來補充基礎模型的初始訓練, Google 說。

主要合作夥伴和客戶

除了擴大其模型生態系統之外, Google 專注於其合作夥伴關係。

其中最主要的是與 Nvidia 擴大合作夥伴關係。

“我們兩家公司擁有世界上最有才華、最深入的計算機科學和計算團隊,正在聯手重塑生成人工智能的雲基礎設施,”Nvidia 首席執行官黃仁勳在 Google Cloud 下一個。

該合作夥伴關係包括預計下個月公開發布的 Google的 A3 超級計算機,基於 Nvidia 的 H100 GPU。

此外,Nvidia DGX CloudNvidia AI 超級計算機現在可以與 GCP 一起使用。

也, Google用於構建 LLM 的框架 PaxML 現已針對 Nvidia GPU 進行了優化。

這兩家供應商還致力於構建他們所說的下一代處理器和硬件基礎設施:名為 DGXH200 的人工智能超級計算機,基於名為 Grace Hopper 的新型 Nvidia 芯片。

Google史蒂文斯表示,由於 Nvidia 在人工智能硬件市場無可爭議的領先地位,與 Nvidia 的合作並不令人意外。

“每個人都必須與英偉達合作,”他說。 “在接下來的六個季度裡,他們幾乎是鎮上唯一的比賽,直到每個人都不斷追趕。”

雖然 Nvidia 的 GPU 引領市場, GoogleDekate 說,公司的加速器 TPU(張量處理單元)也提供了價值。

Google 據透露,TPU v5e 現已推出預覽版,並提供與 Google Kubernetes Engine、Vertex AI 以及 PyTorch、Jax 和 TensorFlow 等框架。 Google 表示 v5e 為 LLM 和 AI 模型提供了比以前版本更好的訓練和推理性能。

AI21 Labs 等初創公司也在使用 TPU 訓練他們的模型。

Dekate 說,對於某些組織來說,使用 TPU 可能是培訓 LLM 的更好選擇,因為處理器具有成本效益。

“這降低了像 AI21 Labs 這樣想要走在前沿創新的初創公司的成本基礎,”他說。

在客戶方面, Google 表示拜耳、福克斯體育和 GE Appliances 等組織正在使用 Google的生成式人工智能技術。

為了 example據介紹,拜耳使用 Vertex AI Search 和 Med-PaLM 2 Google..

GE Appliances 表示將使用 Vertex AI 為用戶提供一項名為 Flavorly AI 的功能。 Flavorly AI 根據用戶廚房中的食物生成定制食譜。 該公司還計劃提供 SmartHQ Assistant,這是一個聊天機器人,可以回答消費者有關其註冊設備的問題。

人力資源軟件供應商 Workday 正在對基礎模型採取混合方法,因為它在與其他人合作的同時構建自己的模型 Google 該供應商的聯合創始人兼聯合首席執行官 Aneel Bhusri 表示,法學碩士。

使用 GoogleWorkday 的生成式 AI 技術創建了職位描述並構建了技能推理 API 引擎,客戶可以使用該引擎來構建用於保留和提陞技能的應用程序。

獲獎者

企業將從中受益 GoogleDekate 表示,微軟及其競爭對手微軟和 AWS 正在開發生成式人工智能。

他說,供應商正在努力改進技術,這意味著企業正在快速創新。

“這個領域的成熟速度比任何人想像的都要快,但企業現在開始看到許多差異化能力的出現,”他補充道。