meta ai有據說開發了一個緊湊型人工智能模型儘管參數較少,但被稱為“ MobiLellm”,與其他AI模型一樣有效,使其對計算能力較小的智能手機有效。
該研究團隊包括來自Meta Reality Labs,Pytorch和Meta AI研究(FAIR)的個人,集中於優化不到十億個參數的模型。這是諸如GPT-4之類的模型大小的一部分,GPT-4的大小被認為包含數万億個參數。

Mobilell的主要改進包括強調模型深度,超過寬度,整合嵌入共享和分組質量注意,並採用革命性的瞬時構成塊構成塊。
這些設計決策使Mobilellm能夠在典型的基準工作負載上擊敗先前的尺寸類型2.7%至4.3%。
儘管這些單位數字的增長似乎微不足道,但它們代表了語言模型構建極具競爭力的行業的重大進步。
其他元AI技術
META的AI技術繼續作為行業的其餘部分繼續發展。有些不如其他人好。 Meta平台,Facebook的父企業,揭示四月份的一套新的人工智能工具。首席執行官馬克·扎克伯格(Mark Zuckerberg)認為,這是消費者可以自由使用的最複雜的AI助手。
儘管有這麼高的主張,但Meta的AI機器人與真正的消費者互動困難。這些參數範圍從80億到700億不等,這些AI語言模型使用大型數據集預測短語中最有可能的下一個單詞。
儘管具有智能的設計,但Meta的AI代理商表現出了不同尋常的行為,例如加入在線論壇並參與對話偶爾會讓人類感到困惑。這種行為突出了創建與人類平穩交互的AI系統的持續困難。
其他緊湊型AI模型
Meta AI的Mobilellm也在Microsoft之後的幾個月發達類似的AI模型,Phi-3-Mini。
據報導,該方法旨在為資源較少的企業以較低的成本完成更簡單的工作。
該業務已經引入了其三種小語言模型(SLM)中的第一個Phi-3-Mini,因為它賭注了一種預計將對人們的運作產生全球影響的技術。
根據微軟Genai Research副總裁SébastienBubeck的說法,PHI-3的成本略低於其他具有同等功能但便宜得多的模型。
微軟認為,儘管大語言模型仍然是不同AI任務的“黃金標準”,但PHI-3系列開放模型是最有效,最具成本效益的小語言模型。
新型輕型AI模型可在擁抱面上可用,用於機器學習模型的插座,Ollama,用於本地運行模型的輕量級框架以及Microsoft Azure AI模型目錄。
此外,它將作為常規的API訪問NVIDIA NIM微服務提供,可以輕鬆實施任何地方。
微軟還宣布,很快就會提供其他PHI-3家庭模型,從而為用戶提供了有關定價和質量的更多選擇。 PHI-3中(140億個參數)和PHI-3-MALL(70億參數)很快將在許多模型花園和Azure AI模型目錄中提供。
