天下数据官网 | 加入收藏 | 网站地图 天下数据新闻资讯平台!
免费定制全球大数据安全解决方案
广告 1000x90
您的当前位置:天下数据IDC资讯 > 解决方案 > 物联网 > 正文

芯片之争:CPU、GPU、DSP、NPU,到底哪个更适用于

来源:互联网 编辑:shirlyyi 时间:2017-05-22

天下数据(公众号:天下数据)按:为保证内容的专业性,本文已邀深度学习芯片领域专家把关审核过,作者铁流。

日前,Intel称将于2017年推出针对深度学习市场的CPUKnights Mill。据Intel宣传,Knights Mill 能充当主处理器,可以在不配备其它加速器或协处理器高效处理深度学习应用。可以说,继中国寒武纪和星光智能一号、IBM的真北、谷歌的 TPU,以及英伟达专门为人工智能定制的GPU之后,Intel也加入该领域的竞争。

那么,这多深度学习处理器都有什么特点,又有什么优势和劣势呢?

| CPU、GPU:用轿车运货

在英伟达开发出针对人工智能的定制GPU,并坚持DGX-1 系统之后,Intel也不甘落后,在收购深度学习创业公司 Nervana Systems之后,Intel也公布了用于深度学习的Xeon Phi家族新成员,在深度学习处理器领域开辟新战场。

芯片之争:CPU、GPU、DSP、NPU,到底哪个更适用于深度学习?

在不久前,Intel还发布了一些Xeon Phi 的基准测试结果,其声称内容总结如下:

1、四片 Knights Landing Xeon Phi 芯片比四片 GPU要快 2.3 倍;


2、在多节点系统中, Xeon Phi 芯片的能比 GPU 更好地扩展38% ;


3、128 块 Xeon Phi 的服务器组成的系统要比单块 Xeon Phi 服务器快 50 倍,暗示着 Xeon Phi 服务器的扩展性相当好;


4、使用Intel优化版的 Caffe 深度学习框架时,Xeon Phi 芯片要比标准 Caffe 实现快 30 倍。

一言蔽之,Intel的众核芯片在深度学习上比英伟达的GPU更为高效。

不过,英伟达也随之反击,声称这是Intel使用了其旧的基准测试结果,并表示:

1、如果英特尔使用更新一点的 Caffe AlexNet 实现结果的话,它就会发现四块上代英伟达 Maxwell GPU 实际上比四块英特尔 Xeon Phi 服务器集群快 30%。


2、另外,一旦英伟达的 GPU 从 28nm 的平面工艺转移到 16nm 的 FinFET 工艺上时,GPU的性能和效率还会有很大的提升。


3、对于深度学习,英伟达还强调更少的高性能节点无论如何都会比更多低性能节点好。并以其最新的 DGX-1为例,认为DGX-1比 21 个 Xeon Phi 服务器集群快一点,比四个 Xeon Phi 服务器集群快 5.3 倍。

芯片之争:CPU、GPU、DSP、NPU,到底哪个更适用于深度学习?

笔者认为,Intel的众核芯片也在一定程度上吸取了GPU的优势,性能不俗,但短时间看还是GPU有优势。不过,无论是针对人工智能的众核芯片还是定制版的GPU,本质上都不是专用处理器,实际上是拿现有的、相对成熟的架构和技术成果去应对新生的人工智能,并没有发生革命性的技术突破。

网友评论:

资讯首页 | IT业界 | 网络安全 | 解决方案 | CDN | 云计算 | 大数据 | 虚拟化 | 操作系统 | 电子商务 | 行业报告

《中华人民共和国增值电信业务经营许可证》 ISP证:粤ICP备07026347号-6

深圳市朗玥科技有限公司版权所有

7×24小时服务热线:4006388808 0755-83460248 7×24小时售后支持:0755-83460017

7×24小时销售热线:0755-83460032 83461241              香港服务电话:+852 67031102

深圳总部:中国.深圳市福田区车公庙苍松大厦北座13层 香港总部:香港上環蘇杭街49-51號建安商業大廈7樓

Top