kaiyun官方注册
您所在的位置: 首页> 电子元件> 业界动态> 对话黄仁勋:战略动向和供应链影响

对话黄仁勋:战略动向和供应链影响

2021-04-16
来源: 与非网eefocus
关键词: 黄仁勋 ARM

  在英伟达GTC大会期间的全球媒体/分析师电话会议中,英伟达CEO黄仁勋首次提出“四大支柱”,并就“与Arm生态的合作、以及新趋势下处理器的发展”等问题回应了与非网。

  首提“四大支柱”

  黄仁勋提出,四大技术正在影响未来,也正在成为英伟达重要的发展支柱。

  一是云原生平台NVIDIA Omniverse

  他表示,人类与AI和机器人共存的虚拟实时3D世界不再只是科幻小说中的故事情节,通过Omniverse可以创建共享的虚拟3D世界。为了实现这一点,Omniverse现可扩展至多个GPU、具有高物理精度、能够充分运用RTX实时路径追踪等技术,并且与NVIDIA AI完全集成。今年夏季开始,英伟达还将提供Omniverse企业授权许可,进一步扩大应用范围。

  二是围绕云原生AI服务的计算需求

  英伟达正在从底层进行自下而上的颠覆创新。全新的AI计算机DGX双管齐下,包括便携式AI数据中心DGX Station,以及为密集型AI研发打造的AI数据中心产品NVIDIA DGX SuperPod;搭载Aerial A100的NVIDIA EGX服务器,是业界首个具备云原生技术、安全性和AI边缘数据中心能力的5G基站;此外,还有量子电路模拟框架CuQuantum,这是专为模拟量子电路而设计的加速库,更适合大GPU显存、多GPU和多DGX节点所需。

  还有面向数据中心的两款芯片:一款是全球首款专为TB级加速计算而设计的CPU Grace,另一款是专为现代超大规模云技术基础架构而生的DPU BlueField。至此,英伟达的数据中心路线图将由三种芯片组成:CPU、GPU、DPU,三类芯片,每年一次飞跃。

  三是将AI扩展到边缘应用

  我们现在正处于第二轮AI发展浪潮的起点,这波发展将以企业和产业边缘计算为主,AI将彻底改变全球大型行业,包括制造、物流、农业、医疗健康、金融服务和运输业。他表示,英伟达的AI服务尚未完全覆盖每一个计算领域,而下一个重点就是企业计算。面向企业级的NVIDIA EGX,将继续扩大NVIDIA-Certified认证服务器生态系统,使得企业用户的使用和部署更为便捷。

  四是自动驾驶

  黄仁勋表示,将于2022年投产的NVIDIA自动驾驶汽车计算系统级芯片NVIDIA DRIVE Orin,旨在成为汽车的中央电脑。最新发布的新一代车载系统级芯片NVIDIA DRIVE Atlan,将为汽车带来真正的数据中心。对于Atlan,黄仁勋寄予厚望,声称“Atlan集英伟达在AI、汽车、机器人、安全和BlueField安全数据中心领域技术之大成”,而现在,它已“整装待发,将带来新一轮的巨大飞跃。”

  与Arm生态彼此需要、互相借力

  根据此次GTC上释出的消息,英伟达与Arm生态的合作全面覆盖了云、高性能计算、边缘、企业级计算、PC,这是否是并购进展顺利的一个讯号?两个生态未来的交融又有哪些计划?

  “这将是非常的重要一步”,黄仁勋表示,“Arm在嵌入式和移动设备领域取得了巨大的成功,一是因为技术效能非常好,二是因为其专利许可模式,有很强的可塑性,用户可以基于其IP打造自己想要的任何产品,来满足市场上多种多样的需求。这是Arm的成功之处,可以说Arm打造出了芯片上的城市(SoC)”。

  他指出,这两大驱动因素发挥得最好的领域就是嵌入式和移动设备,SoC的理念对Arm来说非常重要,保证了Arm作为中央处理的核心利益。但是,数据中心是截然不同的领域,不论是云数据中心、应用数据中心还是边缘数据中心等,充满了多个第三方软件、第三方外围设备。在SoC的世界中,设计者拥有软件和堆栈,但是在数据中心,这一切是完全整合的,也更容易被分解开。

  也正是如此,黄仁勋表示,在数据中心的世界中,需要新的系统、软件、生态、合作伙伴以及新的投资组合,而这些都是英伟达所擅长的。Arm生态系统中的公司,正在蓄力进入云、超级计算等新领域,而英伟达致力于将Arm生态系统扩展到移动和嵌入式系统以外的市场。

  谈到对Arm的收购进展,黄仁勋表示目前非常顺利,正在配合美国、欧洲和亚洲的监管机构,进一步解释Arm未来的发展愿景,以及双方合作将给市场带来的更多创新。他补充,Arm将会继续保持开放授权的模式,两家公司合并,将会加速他在这方面的投资。

  不论是黄仁勋对收购一直表现出来的乐观态度,还是从两个生态交融目前取得的实质性成果来看,大方向上的进展都很顺利。

  本次GTC上公布的合作包括:NVIDIA GPU与基于AWS Graviton2的Amazon EC2实例相结合,双方将共同在云端部署由GPU加速的基于Arm的实例;发布了搭载Arm CPU的开发者套件,便于开发者和ISV合作伙伴使用;与Marvell合作,将OCTEON DPU与GPU相结合,加速云、企业、运营商和边缘应用;在PC领域,与全球最大的基于Arm的SoC供应商之一联发科合作,打造支持Chromium、Linux和NVIDIA SDK的参考平台。

  英伟达推出CPU对全球处理器格局意味着什么?

  英伟达首次发布了一款CPU——Grace,主要面向大型数据密集型HPC和AI应用。GPU霸主推出一款高性能CPU,这对英伟达自身和全球处理器供应商意味着什么?它是否会成为一款改变处理器现有游戏格局的产品?

  黄仁勋表示,确实是游戏的玩法在改变,但这款产品肩负的使命并不是改变游戏规则,而是要解决问题,当前所面临的根本问题是数据处理需求增长太快,超出了现有的系统内存、带宽等负荷。

  “处理大量数据是当今计算机系统面临的一大挑战,对于transformer和推荐系统等AI模型来说尤为如此,新一代自然语言处理(NLP)模型的训练会有超过一万亿的参数。但是在实际应用中,GPU受限于数据中心系统中现有的CPU内存和PCIe带宽,更快的NVLINK又不被x86 CPU所支持”,黄仁勋指出。

  因此,与其说英伟达推出了一款CPU处理器,不如说,是为自己的GPU系统量身打造了一款高度专用的处理器。

  在GTC Keynote中,黄仁勋详述了这款专用CPU为系统带来的改变。他以1/2的DGX说明了系统目前的瓶颈所在:每个Ampere GPU都连接到80GB的超快速显存,运行速度为2TB/秒,加在一起,即4个Ampere以每秒8TB的速度处理320GB的显存。与之形成对比的是,CPU内存为1TB,但速度仅为每秒0.2TB,CPU内存比GPU大3倍,速度比GPU慢40倍。

  基于此,英伟达提出了一个大胆的设想:如果能够用该节点的全部1320GB内存来训练AI模型,需要做什么?答案就是更快的CPU。通过建立四条直连CPU的通道,每个GPU都有了一个专用通道。基于Arm下一代服务器IP的Grace,与英伟达GPU紧密结合,性能比目前最先进的NVIDIA DGX系统(在x86 CPU上运行)还高出10倍。

  “未来,绝大多数数据中心仍将使用现有的CPU,x86服务器架构的出色之处在于能够通过配置不同的CPU、内存、PCIe和外围设备来服务所有这些应用场景”,黄仁勋强调,“Grace专为加速大量数据的应用程序而构建,主要面向大型数据密集型HPC和AI应用的细分市场。”

  Grace无疑彰显了Arm架构所带来的助益,英伟达的架构和平台通过支持x86和Arm,将能够满足市场上的更多需求。

  这也意味着,英伟达与x86的竞合之路也进入了新阶段,以往更多是基于x86架构做加速升级,但现在,放眼数据暴增的新应用,英伟达可以拍拍Intel的肩膀说,“Hey buddy, now I have my own CPU. ”

  The Last One

  全球开云棋牌官网在线客服供应链高度互联非常重要

  针对当前全球开云棋牌官网在线客服芯片的突出问题,黄仁勋也发表了个人的观点。

  “开云棋牌官网在线客服技术对整个人类社会的重要性比以往任何时候都要明显,一颗芯片有可能影响整个行业,特别是当前在汽车领域,”他表示,“显然,现有的供应链需要升级、重塑,减少层层责任,这样就可以更直接地找到货源。”

  对于美国的供应链回迁问题,黄仁勋表示,“世界供应链的高度互联非常重要,谁都不能孤立下去。在现有的供应链格局中,世界各地厂商已经在各自环节中发挥着重要作用。很多电子设备都是由来自世界不同地方的零部件组合而成,而这需要很多人的工作才能实现。供应链已经如此复杂,也正是科技产业创造出了一个相互联系的地球村。”

  他认为,不管产业链如何变迁,但内在的联系不会消失,影响未来计算的基本动力应该被认识到。5G、云计算、数据中心正在对现有的计算架构进行升级,所有这些驱动力使成千上万的小芯片聚合成一个个计算单元,将重塑现有的行业应用,重塑所有受计算影响的行业。

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。
Baidu
map