谷歌的机器学习处理器TPU(Tensor Processing Unit)现已开放公测版,谷歌云的用户可利用这一特制芯片大幅加快对AI模型的培训和执行速度。
这款由谷歌去年公开的芯片专门致力于加快AI的计算性能,谷歌利用64块TPU芯片在短短的半小时内完成了对ResNet-50神经网络的培训,这款芯片有助于吸引用户从亚马逊AWS和微软Azure服务转向谷歌的云平台,加快电脑学习计算性能和执行速度,将大力帮助数据科学家利用实验结果促进未来AI模型的迭代发展。 此外,云供应商正寻求公共云平台的多样化用途,这一芯片将帮助谷歌在这一趋势中获益,迄今已有公司在测试该芯片的内测版。如,Lyft目前正使用这一芯片训练用于自动驾驶汽车中的AI模型。
不过,这些TPU芯片的使用费用并不便宜:每小时每块TPU将收费6.5美元,虽然谷歌对用户实行了配额限制,但任何人都可申请使用这些TPU,获得TPU后,谷歌将提供几个经优化的参考模型用测试者试用。
谷歌大脑负责人Jeff Dean解读云TPU 1.谷歌将为想访问高速加速器训练机器学习模型的人们,推出Cloud TPU的beta版。细节参见。 2.通过谷歌云VM,这些装置通过TensorFlow编程模型提供180 tflops的计算能力。 3.很多工程师都遇到机器学习计算受限问题,Cloud TPU将成为好的解决方案,一个Cloud TPU能在24小时内训练ResNet-50模型达到75%的精度。 4.Two Sigma的CTO Alfred Spector说:“我们发现,将TensorFlow工作负载转移到TPU上,极大降低了编程新模型的复杂性,并且缩短了训练时间。” 5.Lyft软件总监Anantha Kancherla说:“自从使用Cloud TPU,我们被它的速度惊呆了,以前需要花几天的事情,现在几小时就能完成。” 6.如Resnet,MobileNet,DenseNet和SqueezeNet(物体分类),RetinaNet(对象检测)和Transformer(语言建模和机器翻译)等模型实现可以帮助用户快速入门。 7.Cloud TPU最初在美国区域提供,价格每小时6.5美元。 8.你可以填表请求Cloud TPU的配额。 9.《纽约时报》记者Cade Metz报道说:“谷歌将其专用AI芯片普及化。” 10.现在让外部用户也能用上Cloud TPU是谷歌很多人员工作的成果,包括谷歌云、数据中心、平台小组、谷歌大脑、XLA团队。
相关主题 |