在等待注入生成式人工智能的一般公共功能的同时,苹果正在研究引擎,换句话说,人工智能模型,这将成为制造商战略的核心。因此,后者为开源社区提供了一个新的大型 OpenELM 语言模型系列,这些模型具有本地操作的特殊性。
将于 6 月 10 日开始的 WWDC 不会标志着 Apple 首次推出生成式 AI,即使该制造商预计将发布iOS 18 中的新 AI 功能。苹果公司已经开发这项技术几个月了,这是一个露天项目苹果专家定期发布他们的研究成果。
尊重机密性的人工智能
该公司已经在人工智能开发者社区的聚会点 Hugging Face 上上线了一个名为 OpenELM 的大型语言模型 (LLM) 系列,旨在实现“开源高效语言模型”。因为是的,完全可以按原样使用此代码或对其进行修改,包括根据许可证用于商业用途。
总共有8个型号;四经过预先训练,即在大型数据集上进行训练,以便后续开发更专业的模型。这四其他经过指令调整的模型经过预先训练,并另外接受了额外的训练以响应特定的查询。
这些 OpenELM 模型覆盖不同数量的参数,范围从 2.7 亿到 30 亿个参数——换句话说,是法学硕士中人工神经元之间的连接数量。每个参数都可以看作是一种“权重”,它影响模型处理信息的方式。您可能认为参数越多越好,但需要注意的是,数量并不总是保证最佳性能;其他因素,如训练数据的质量和算法的效率也发挥着至关重要的作用。
这些模型的特殊性在于它们都在本地运行,即在设备上运行。苹果已经对电脑(Mac 和 PC)进行了基准测试,一切都表明他们也可以在智能手机上发挥出最好的水平。这让人想起谷歌的 Gemini Nano,或者微软的新 Phi-3 Mini 型号(38 亿个参数)。
苹果应该促进AI任务本地处理对于数据保密问题。想到这些OpenEML模型都会被使用也不是不可能!
🔴为了不错过任何01net新闻,请关注我们谷歌新闻等WhatsApp。