在其GTC(GPU技术会议)会议上,NVIDIA最终根据其全新的建筑Volta揭开了其第一张图形卡。但是,目前将保留给非常专业的特斯拉V100,只能在售出70,000至150,000美元之间的大型服务器或工作站中使用。

特斯拉V100:IA,深度学习和云计算
特斯拉V100是有史以来最大的筹码之一,在NVIDIA的研发中,这将耗资超过30亿美元。刻在12 nm中的芯片在815 mm2的面积上包含210亿晶体管。为了进行比较,P100的长者以610 mm2的死亡射击了“仅” 153亿晶体管。
雕刻技巧的减少以及芯片尺寸的增加使Nvidia显示出比其他数字更令人印象深刻的数字。
因此,在这款V100中,由16 GB的HBM2存储器(900 GB/sec的带宽和4096位的接口)支撑,用于7.5(双精度FP64)和15 TFOPS(简单的精度FP32),支持了16 GB的HBM2存储器(带宽为900 GB/sec和4096位的接口)。提醒我们,泰坦XP- 当前最高端的公共卡 - 提供12个TFOP的计算能力。
当然,有可能积累多个V100的功率并利用它,NVIDIA提供了新版本的界面(NVLink),允许将GPU对话进行两倍,因为它们之间的GPU和CPU之间的GPU之间的GPU。在深度学习应用程序中,记忆访问的问题仍然没有得到解答。

根据其父亲的说法,根据Pascal架构(例如GTX 1080的),TV100将比当前的Tesla高5倍,并且能够提供100个传统计算机高端处理器的计算能力。稻草!
人工智能的心
证明特斯拉V100在我们的玩家玩家中无关,芯片还具有新颖性,张量核心(640),计算单元专门针对实施神经网络来引起人工智能。
显然,V100旨在最佳地运行深度学习基础的不同平台,特别是Tensorflow,MXNET或CAFFE2。这些张量的核心(超级专业化)可以更快地处理算法层,该算法层是特定于深度学习的。换句话说,他们对学习AI的学习速度更快。由于NVIDIA在支持框架中不可知,因此在医疗领域,研究,高级工程甚至自动运输的收益都可以使用。
在进行与深度学习有关的计算时,张量核和CUDA核心的累积能力将达到120个TFOP(混合精度FP16I和FP32)。
一种超功率的计算解决方案,显然使Amazon,Facebook,Baidu,Microsoft或Google感兴趣。因此,杰夫·贝佐斯(Jeff Bezos)和雷德蒙德(Redmond)的巨人公司的代表在恩维迪亚(Nvidia)老板詹森·黄(Jensen Huang)的开幕主题演讲中登上了舞台,以效忠这一解决方案。
但是,那些无权享受现场的人在圣何塞会议中心的走廊中无所不在,这证明了Nvidia是人工智能革命的核心。
我们可以很容易地理解高科技和网络巨头的热潮。根据詹森黄(Jensen Huang)的说法,NVIDIA中只有一台DGX-1V服务器(150,000美元),该服务器具有八份Tesla V100芯片的副本,可以替换400个当前服务器。在基础设施和能源方面,经济都将是巨大的。特别是因为该服务器将能够提供计算能力,例如运算,在8 Titan X上花费了8天的操作,只需8个小时,而Tesla V100数量相同。
在缺乏时间和武器的人工智能竞争的领域中,这一论点是相当大的。因此,特斯拉V100的未来很有可能会辐射。
离我们很近
如果AI革命显然会对我们的日常生活产生直接影响,那么所有这些仍然相当遥远,有时是蒸气。但是,在这种雪崩的力量之后,我们一定不能忘记,我们播放PC的未来已经准备好了。
如果Nvidia尊重其通常的速度,那么Volta不应在明年(充其量)之前到达我们的圈速。可以肯定的是,这种芯片的未来Geforce GTX变化也可能是可怕的。