在 Google、Meta 或 Amazon 发布公告后,微软也会开发自己的芯片旨在用于人工智能, «雅典娜”。该公司将以此名称开发一款内部芯片,该芯片将支持人工智能对话代理,例如聊天GPT及其未来的改进版本,有待培训。这家数字巨头向 ChatGPT 背后的美国公司 OpenAI 投资了 10 亿美元,据说正在高度保密地致力于“雅典娜» 自 2019 年以来。这是专业媒体于 4 月 18 日星期二披露的信息,依赖于它的两个来源。该项目将雇佣近 300 名员工,在 ChatGPT 的热情推动下,其范围不断扩大,汇集了全球近 2 亿用户。
因此,微软将加入数字巨头的行列,这些巨头也在开发自己的专用于人工智能的芯片。事情本来会进展顺利,因为“雅典娜我们的同事解释说,» 已经由一小群 Microsoft 和 OpenAI 员工进行了测试。这些芯片有两个功能:训练和操作聊天机器人系统。它们最早可能在明年上市。目前尚不清楚这些正在开发的组件是否会专门在内部使用,也不知道微软Azure云平台的客户是否可以从中受益。通过这个项目该公司尚未正式确认,这家数字巨头希望摆脱对英伟达的严重依赖。
微软依靠其芯片来节省资金
因为在这个领域,这家美国公司占据了主导地位。任何想要获得芯片的人几乎都必须经过这家公司,该公司占据了机器学习芯片95%以上的市场份额。新街研究。这种准垄断给微软带来了两个问题。我们的同事解释说,由于所有公司都在人工智能竞赛中争相购买这些组件,社会无法购买所需数量的组件。然后,这家数字巨头被迫为每块芯片支付高昂的价格:雅典娜将允许它节省大量成本。
另请阅读: 中国即将掌握芯片制造……感谢华为?
一些分析人士认为,使用内部半导体可以将芯片成本降低三分之一。知道 ChatGPT 需要 30,000 多个 Nvidia A100 芯片,每片成本为 10,000 美元——算上 A100 的改进版本 H100 的成本为 40,000 美元,所涉及的金额是巨大的。 SemiAnalysis 分析师迪伦·帕特尔 (Dylan Patel) 引用信息,估计运行 ChatGPT 每天的成本接近 700,000 美元。对于每个请求,该公司必须支付 0.36 美分。随着微软人工智能搜索引擎 Bing 的推出,这一成本预计将呈爆炸式增长。微软和英伟达都不愿回应我们同事的置评请求。
来源 : 信息