谷歌定制机器学习芯片强悍:比GPU加CPU至少快15倍

首页

2018-11-09

  北京时间4月6日消息,谷歌开发定制芯片,它可以提高机器学习算法的运算速度,这不是什么秘密。 谷歌管这些处理器叫作TensorProcessingUnits(简称TPU),2016年5月,谷歌在I/O开发者大会上首次展示了TPU,之后再也没有提供更多细节,谷歌只是说它正在用TPU优化TensorFlow机器学习框架。 今天,谷歌公布了更多内容。

  根据谷歌自己制定的基准,TPU执行谷歌常规机器学习任务时,速度比标准GPU/CPU组合产品平均快了15倍至30倍。

标准GPU/CPU组合产品将英特尔Haswell处理器与NvidiaK80GPU安装在一起。 数据中心极为重视能耗,使用TPU后每瓦特性能(也就是TeraOps/Watt,每万亿次/瓦特)提高了30-80倍。 请注意,谷歌提供的数据是在生产过程中使用机器学习模型时获得的,并不是最初创建模型时的数据。   谷歌还表示,大多数架构师优化芯片是为了提高卷积神经网络的性能,不过卷积神经网络只占了数据中心负载的5%,大部分应用使用的是多层感知器神经网络。

  2006年,谷歌开始研究如何将GPU、FPGA、定制ASICS应用于数据中心。 不过当时并没有太多应用因为特殊硬件获益,许多繁重的任务可以用数据中心多余的硬件完成。   到了2013年情况开始改变,当时谷歌认为DNN将会变得流行起来,数据中心的计算需求将会翻倍,如果用传统CPU计算成本相当高。

正因如此,谷歌启动一个项目,用定制ASIC完成推算,采购现在GPU用于训练。 谷歌报告称,与GPU相比,将成本效益提高10倍就是它的目标。