在等待注入生成式人工智慧的一般公共功能的同時,蘋果正在研究引擎,換句話說,人工智慧模型,這將成為製造商策略的核心。因此,後者為開源社群提供了一個新的大型 OpenELM 語言模型系列,這些模型具有本地操作的特殊性。
將於 6 月 10 日開始的 WWDC 不會標誌著 Apple 首次推出生成式 AI,即使製造商預計將發布iOS 18 中的新 AI 功能。蘋果公司已經開發這項技術幾個月了,這是一個露天項目蘋果專家定期發布他們的研究成果。
尊重機密性的人工智慧
該公司已經在人工智慧開發者社群的聚會點 Hugging Face 上上線了一個名為 OpenELM 的大型語言模型 (LLM) 系列,旨在實現「開源高效語言模型」。因為是的,完全可以按原樣使用此程式碼或對其進行修改,包括根據許可證用於商業用途。
總共有8款;四經過預先訓練,即在大型資料集上進行訓練,以便後續開發更專業的模型。這四其他經過指令調整的模型經過預先訓練,並另外接受了額外的訓練以回應特定的查詢。
這些 OpenELM 模型覆蓋不同數量的參數,範圍從 2.7 億到 30 億個參數——換句話說,是法學碩士中人工神經元之間的連接數量。每個參數都可以看作是一種“權重”,它影響模型處理資訊的方式。您可能認為參數越多越好,但需要注意的是,數量並不總是保證最佳性能;其他因素,如訓練資料的品質和演算法的效率也發揮著至關重要的作用。
這些模型的特殊性在於它們都在本地運行,即在設備上運行。蘋果已經對電腦(Mac 和 PC)進行了基準測試,一切都表明他們也可以在智慧型手機上發揮出最好的水平。這讓人想起Google的 Gemini Nano,或者微軟的新 Phi-3 Mini 型號(38 億個參數)。
蘋果應該促進AI任務本地處理對於資料保密問題。想到這些OpenEML模型都會被使用也不是不可能!