根据谷歌它的张量处理单元或定制的机器学习加速器TPU比当代CPU和GPU快。
Google自己的机器学习TPU芯片
Google制作了自己的机器学习芯片来加强其机器学习算法,这不是秘密。它揭示了2016年5月在其I/O开发人员会议上,该TPU芯片在其I/O开发人员会议上,但从未透露过足够的指标以使其成为谈话点。但是现在,这些筹码将是讨论点,Google最终披露了有关该项目的细节和基准。
这些芯片的速度有多快?
那些更精通芯片设计语言的人可以浏览并阅读Google的官方论文在芯片上,它可以详细介绍该技术的细节。然而,最重要的是,在使用神经网络推断的生产工作量中,TPU芯片证明要快得多 - 至少比当代CPU和GPU组合快15至30倍,而且在Google的案例中,组合指的是英特尔的Haswell Xeon E5-2699 V3处理器和Nvidia的Tesla K80 GPU。
这些自定义芯片自2015年以来一直在为Google的数据中心提供动力,也被证明是比标准芯片更大的功率和能源效率,在每瓦消耗的能源的TERA操作方面至少取得了30至80倍的进步。这是值得注意的,因为功耗和效率是数据中心的关键方面。
这些应用程序当然是由神经网络提供动力的,但是Google表示,运行它们并不是很大的压力,仅需要100至1,500行代码的低点计数。该代码基于张量,Google的开源机器学习框架。
尽管数字看起来很出色,但值得一看的是,这些数字主要是指在生产中使用机器学习模型,而不是模型的训练阶段,该模型的特征有所不同,根据向Google。
但是事实仍然是,与其他主要科技公司相比,Google更加诚挚地接受了人工神经网络。在2013年,神经网络被证明太流行了,其使用可能会使Google数据中心的计算需求增加一倍。如果不是为了定制的机器学习芯片,Google会依靠标准CPU和GPU来满足这些需求,这些需求不仅要慢了,因为它已经证明了这些要求,而且在该规模上要贵得多。
Google表示,其TPU芯片允许其迅速做出预测,并且由于其速度,电力产品需要在一秒钟内进行响应。这些芯片也位于每个搜索查询的后面,它们启用了支持前线的准确视觉模型,例如Google Image Search,Google Photos和Google Cloud Vision API。这些TPU芯片也使Google翻译的重大改进去年推出。
Google可能不会在其云平台之外提供TPU芯片,尽管该公司指出其他人可以从其结果中收集并制作自己的芯片,甚至可以篡夺Google所取得的成就,从而提高了更高的标准。