kaiyun官方注册
您所在的位置: 首页> 模拟设计> 业界动态> Google 英特尔以“芯”尬场 欲与NVIDIA一较高下

Google 英特尔以“芯”尬场 欲与NVIDIA一较高下

2017-07-24

TIM截图20170723195710.jpg

绘图芯片大厂NVIDIA近来成了镁光灯的焦点所在,尽管该公司业已致力于绘图处理器(GPU)加速运算超过10来年有余,但直到1年前,科技业界才真正转而聚焦在这股运算趋势上。在此之前,业界仰赖的是通用型的微处理器,也就是由英特尔(Intel)的芯片所主导,然而,随著摩尔定律减缓,资料中心亟需替代方案好进一步改善其运算效能。

相较于英特尔,NVIDIA另辟蹊径、采取了完全不一样的途径,与其单独仰赖晶体管倍增的摩尔定律,NVIDIA开发出一整套系统,藉此在不同层次上提供先进运算,包括了处理器架构、系统软件、算法以及应用等。虽然NVIDIA的老本行电竞领域正观察到强劲的市场增长,但受惠于人工智能(AI)革命所驱动的资料中心爆炸性成长,更是NVIDIA让人另眼相看之处。

NVIDIA的GPU加速器从HPC扩张到云端服务领域

NVIDIA从5年前开始便替旗下GPU探索通用型GPU的商机所在,这乃是着眼于GPU具有远比CPU来得更快的运算能力。这些GPU先前则为了试行先进模拟被用在高效能运算(high-performance computing;HPC)系统上,这些HPC系统通常用在预测性模型上,藉此解决复杂的问题,该系统能够快速处理大量资料。

根据NVIDIA旗下资深副总裁Shankar Trivedi表示,1颗以Pascal架构为基础的Tesla P100 GPU平台便足以取代掉19个机架的纯CPU服务器系统,预计可以节省1,300万美元的成本,而且这样的成本撙节还不仅仅来自于服务器数量的减少,更可以减少功耗与节省空间,对客户而言均省下相当的负担。

GPU加速器所掀起的风潮促使了众多的高效能运算中心争相采用AI,虽然大多数业者选择NVIDIA的GPU作为加速器之用,但也有部分业者导入赛灵思(Xilinx)或英特尔旗下Altera的FPGA芯片作为加速器之用。随后到了2016年,GPU的使用也扩张到HPC以外的云端服务供应商与企业端,而NVIDIA的资料中心部门营收也因此呈现每季3级跳、超过4亿美元规模。

从财报资料来看,过去4年来,NVIDIA的电竞游戏部门已经增长高达40%,在此同时,随著PC电竞需求的增长,该公司也主导著高阶GPU市场。同样地,在资料中心市场方面,也观察到类似的趋势,随著云端服务供应业者逐渐采用GPU应用在AI任务上例如影像辨识或语音辨识等,GPU加速运算市场需求从2017会计年度起开始攀升,越来越多的领域采用GPU作为其AI解决方案,而NVIDIA正是这领域的领先者。

NVIDIA的资料中心部门营收在2018会计年度第1季年增186%、季增38%达到4.09亿美元规模,使得资料中心部门对于公司的营收贡献度仅仅亚于电竞游戏部门,成为NVIDIA旗下第二大部门,预估长期而言该部门贡献度可望提升至30%。先前使用英特尔FPGA芯片加速器的微软(Microsoft),近来也采购NVIDIA的Tesla P100和P40 GPU作为其Azure云端平台加速运算之用。

NVIDIA的GPU加速器协助云端业者进行深度学习任务

诚然,GPU加速运算的确帮助超级计算机更有效率地解决了许多复杂的问题,而透过GPU所节省的成本与时间也因此更进一步鼓励许多云端业者,藉由使用NVIDIA的GPU来进行各自的深度学习任务。一般来说,深度学习可分两阶段,第一阶段是训练,深度神经网络透过大量资料来训练,而第二阶段便是推论,计算机透过训练所得来应对现实世界的回应。

以目前来说,NVIDIA的GPU被亚马逊(Amazon)用来作为其数码助理的训练之用、也被微软用来作为影像识别的训练之用、另外也被Google和百度用来作为语音指令的深度学习训练之用。有监于GPU能够缩短深度学习训练的时间从好几个月缩短到几周内即可完成,上述亚马逊、微软、Google和百度等均使用NVIDIA的GPU来训练自家的深度神经网络。

NVIDIA执行长黄仁勋日前在财报法说会上曾经表示,其实AI目前还在早期阶段,而且尚未被制造业者、汽车业者和其它业者所大规模采用。NVIDIA目前仍在探索深度学习和AI各种不同的应用可行性。不过,NVIDIA目前正快速抢进、寄望成为AI革命背后的关键推手,该公司从2012年以来,已明显地改善了旗下GPU生态系统,NVIDIA已经扩增AI应用达4倍之多,从108项到460项,而且也积极扩展其开发者基础达10倍之多,从原先大约5万人到目前超过50万人之多。

过去2年来,超大规模(hyperscale)资料中心客户(例如Google或亚马逊),从NVIDIA资料中心部门里微不足道的客户组成增长到该部门成长最为快速的客户群,如此快速的增长,其实是导因于云端运算的三大支柱所驱动的:

其一,云端业者导入GPU作为内部深度学习训练任务之用;其二,云端业者亟需深度学习推论任务所要求的运算能力;其三,云端业者也开始在云端服务中提供GPU运算服务,包括Google、百度、腾讯、和IBM等均让用户使用NVIDIA的Tesla GPU和深度学习云端服务。

NVIDIA的竞争对手 Google和英特尔分别以TPU和ASIC、FPGA尬场

NVIDIA目前可说是在AI领域里的市场领先者,在深度学习训练方面几乎占据了近乎寡占优势,如今,该公司正积极开发各种解决方案、企图挺进深度学习的推论领域。不过,AI市场上的强劲增长商机也同时吸引了其它大型科技业者的青睐,包括Google、英特尔等在内的高科技业者均企图与NVIDIA一较高下。

Google甫于5月底揭露了该公司第二代的TPU(tensor processing units),声称可以同时处理深度学习的训练和推论这两大任务,至于Google原先第一代的TPU只能执行推论任务。在此同时,Google表示,第二代的TPU执行深度学习的训练任务远比NVIDIA的GPU来得更令人满意,因此,Google计划免费提供1,000颗云端TPU给Open AI的研究者好让其Google Cloud更具有竞争力。

然而,即使就效能表现而言,Google的TPU当真远比NVIDIA的GPU来得更具有竞争力,但Google仍不太可能会成为NVIDIA的直接竞争对手,毕竟,Google的TPU基本上并不打算对外销售,只计划提供公司内部使用,也就是说,对NVIDIA的冲击最多在于Google本身可能减少对NVIDIA的GPU采购。

不过,上述Google免费提供TPU的盘算,在于企图把TPU用户锁在Google自家的TensorFlow AI架构里,相对地,NVIDIA的GPU却是可以透过大多数的云端平台接取,也能运行大多数的AI架构,包括Caffe、Torch和PaddlePaddle。

至于在英特尔方面,英特尔先前收购了AI新创企业Nervana Systems,该公司开发了一种ASIC芯片,称为Nervana Engine,号称其运算能力比起GPU高出10倍。英特尔收归旗下后,计划将此ASIC集成进入自家的Knights Mill Xeon Phil处理器,作为深度学习之用,预计在2017年下半发表。

在此同时,英特尔还打算集成Altera的FPGA芯片到旗下的服务器处理器当中。值得注意的是,相较于耗电的GPU而言,FPGA功耗来得比较低,从云端资料中心的角度出发,可以省下明显的成本支出,然而,有监于FPGA需要在硬件和软件方面的专家来进行程序化,相对而言,困难度较高。虽然微软目前正在导入FPGA作为深度学习的训练之用,但该公司也开始采用NVIDIA的GPU进行AI任务。

综上所述,无论是GPU、TPU、ASIC还是FPGA等,并没有一种放诸四海皆好用的AI应用芯片,然不可讳言的是,NVIDIA目前正享有在AI领域的先发者优势,但随著未来AI市场的进化以及竞争对手的产品强化,NVIDIA势必将面临激烈挑战。


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306116;邮箱:aet@chinaaet.com。
Baidu
map