实现每秒20亿亿次后 超级计算机的终点在哪里
2018-07-02
最近美国能源部下属的橡树岭国家实验室放了一个大招:新一代超级计算机“Summit(顶点)”正式发布,帮助美国重新夺回超算领域的桂冠。其浮点运算速度峰值可达每秒20亿亿次,比中国的最强超算“神威太湖之光”快60%。由于6月是每半年公布一次的全球超算500强榜单年中更新的时间,美国抢在这期榜单公布前宣布成功研制“顶点”,可见其重回超算之巅的急迫心情。
美国超级计算机“顶点”拿下头把交椅
这台“顶点”超级计算机是由IBM公司作为总承包商,为橡树岭国家实验室开发的,英伟达公司以及一些技术专家从旁辅助,耗资2亿美元,占地面积有两个网球场那么大。这台庞然大物足足由4608台计算服务器组成,每个服务器包含两个22核的IBM Power9处理器和6台NVIDIA Tesla V100图形处理单元加速器。
该实验室说,它们不仅使“顶点”的浮点运算速度峰值可达每秒20亿亿次,还能让“顶点”在执行某些科学运算时,“混合精度”运算速度达到每秒330亿亿次。
橡树岭国家实验室专家杰夫·尼克尔斯说,“顶点”比过去超级计算机的计算能力和存储能力更强,拥有庞大和高质量的文件系统以及快速的数据通道,这让研究人员在使用它时可以更快得到更精确的结果。
中国目前最强的超算——“神威太湖之光”,峰值运算性能为12.5亿亿次,“顶点”比“神威太湖之光”快了将近60%。
放眼国际,中美超算实力最强,无论是数量上还是性能上都甩开其他国家一大截。不过在20年前,和美国争夺最强超算头把交椅的一直是日本。
1999年,日本投入400亿日元(约合人民币25亿元),开始了名为“地球模拟器”的超级计算机开发计划。2002年,日本“地球模拟器”超级计算机成功推出,并将多年来一直独占鳌头的美国挤下了“头把交椅”。但正是“地球模拟器”的横空出世触动了美国,美国政府随后开始加大了在超级计算机研发方面的投入,并在2004年重新占据“第一”,而且在前100名中一直占据大多数的席位。这种美国占据霸主地位的情况一直延续了6年。
而自日本夺下超级计算机第一把交椅之后,利用超级计算机展开研发业务的日本企业虽然也经历了一个大发展,多达如今的180家,在诸如新药的研制和新车型的设计方面,超级计算机长袖善舞,大有用武之地。但由于日本近年的投入力度不够,再也没有后续的超级计算机问世。
现在,面对中美在超算上的竞争,欧盟、日本、加拿大等都不愿意屈居人后,纷纷布局下一代超算,做技术储备。
不少人认为,构建超级计算机就是在做芯片处理的加法,处理器(CPU)越多,计算速度也就越快。事实并非如此。打个比方,三人共同协作完成任务,除去正常开展任务工作外,还需要耗费人力进行任务分解、任务分配、结果归总等管理工作。管理工作不科学,总体工作效率会大幅降低。所以,和普通计算机相比,超级计算机还有并行计算和异构计算两大难题需要解决。
并行计算是指同时使用多种计算资源解决计算问题的过程,是提高计算机系统计算速度和处理能力的一种有效手段。它的基本思想是用多个处理器来协同求解同一问题,即将被求解的问题分解成若干个部分,各部分均由一个独立的处理机来并行计算。并行计算的目的是为了加快求解速度,扩大求解规模。
异构计算是指使用不同类型指令集和体系架构的计算单元组成系统的计算方式。不同种类的处理器都有适合其处理的任务类型,比如CPU适合做串行、逻辑复杂度高的任务;GPU主要用于图形处理和矩阵运算,适合做简单、并行度高的任务;TPU(Tensor Processing Unit,张量处理单元)是为机器学习定制的芯片,主要用于人工智能领域。
让气象预测间隔从30分钟缩短到10分钟
超级计算机可以干什么?据新华社消息,美国能源部长里克·佩里说,“顶点”超算将给能源研究、科学发现、经济竞争力和国家安全带来深远影响。美能源部今年将启动遴选科学项目,申请使用“顶点”超算的科学项目已开始排队。橡树岭国家实验室计算生物学家丹·雅各布森说,“顶点”超算有望凭借强大的计算能力,打开此前人们难以想象的科研空间。
比如,天文学家计划用它模拟超新星爆发。橡树岭国家实验室计算天体物理学家布朗森·梅瑟说,“顶点”的计算能力比早先所用的计算机强大很多,因此能使模拟时间延长数千倍,为研究宇宙中如何出现金和铁等重元素提供线索。在材料学领域,研究人员需要能在原子层面模拟材料的性质,但他们在过去的计算机上只能模拟数十个原子的行为,现在他们计划用“顶点”模拟数百个原子的行为,从而帮助寻找超导体等新材料。在人工智能与医疗的交叉领域,“顶点”也有用武之地。比如将其用于癌症研究,帮助医生找出癌症发病过程中基因、生物标记物和环境等因素间的关系。还可用它分析蛋白质和细胞的功能,帮助防治阿尔茨海默病和心脏病等疾病。
据了解,目前超级计算机已同理论研究和科学实验一起成为人类探索未知世界的三大科学手段,被称为支撑科学发现的第三个支柱。
知乎网友“小侯飞氘”举了这样一个例子,在飞行器制造领域,经常要计算飞机附近空气的流动以及飞行器本身的受力情况。最常用的计算方法是把空气、机体分割成一个个小块,分别计算每个小块的运动和受力,再整合起来得到整体的运动和受力情况。一般来说,分割得越精细,每个小块越小,计算越准确。而鱼与熊掌不可兼得,分割得越精细,计算量也越大。
在科研和工程领域,有许许多多这样的计算任务,例如原子基本性质的量子力学计算、药物反应过程的分子动力学模拟、黑洞碰撞的相对论模拟、大气运动和天气变化的预测、桥梁设计中的受力计算……这些复杂的问题,如果用单个CPU核心计算,可能要花上几个月甚至是几年才能得到结果。这么长的计算时间是难以接受的,所以我们需要用多个CPU核心进行并行计算以提高效率,集成大量CPU于一身的超算自然就应需而生了。
再比如,在气象研究领域,1983年研制的第一台银河超级计算机,让中国成为世界上少数能发布5-7天天气预报的国家,也是发展中国家里的第一个。
近年来,日本理化学研究所和气象厅的团队利用超级计算机“京”分析气象卫星“向日葵8号”的观测数据,捕捉曾难以用于天气预报的云层高度和厚度,更加准确地预测台风和集中暴雨。据报道,2015年开始运用的“向日葵8号”的观测间隔从此前的30分钟变为10分钟,这使得更早发现危险并促成居民疏散成为可能。
该团队介绍,“向日葵8号”捕捉从云层顶部发出的红外线,探测迄今难以确认的云层高度。然后通过超算“京”模拟附近的气象信息,推测云层的厚度。使用这些数据可预测随风飘动的云层动向。
传统超算功耗高,量子计算是未来发展方向
以往超级计算机通过增加处理器数量就能不断提高性能,但美国劳伦斯·伯克利国家实验室的豪斯·费姆尼教授认为,最近几年超算技术上的发展,都不足以突破E级超算(即每秒百亿亿次计算)的障碍。
超算发展目前面临的挑战首先是功耗控制难。目前的集成水平和此前相比并没有根本性改善,以现有技术,E级超级计算机的功耗会超过20兆瓦,建造费用将超过2亿美元,这将带来一系列技术和运营问题。例如“天河二号”一年仅电费就要1亿元人民币,全速运算的话,电费更高达1.5亿元。如果还是按照老思路,依靠增加规模制造出的E级超算,功耗可能会达到50-100兆瓦,这需要有一个专门的核电站来给它供电,这样的超算显然没有实用价值。同时这样密集排列的大功率处理器,也会带来无法解决的散热问题。因此国际上公认的E级超算标准是,功耗必须控制在20兆瓦内,这就要求在制造工艺上有革命性突破。
其次是可靠性问题,将来超级计算机并发部件将超过10亿,以现在的故障率,平均每10-20分钟系统就会报一次硬件错误,而每次处理错误需要半个小时。这显然也是无法容忍的。
此外,超算还面临数据的访问速度限制。如果按现有设计方法,通过不断增加处理器数量来研制超算,其体型和规模会越来越大,数据在存储器和处理器之间进出所耗费的功率会越来越多。有人甚至预测,超算90%的功率将被用于数据输送。
因此,美国也有一些学者认为应该反思超算的发展方向,改变追求峰值运算速度的模式,而注重实用价值。例如放弃通用型超算,根据实际需求定制超算。Top500榜单创始人、田纳西大学计算机科学家杰克·东格拉就认为:“速度并不意味着一切。尽管汽车达到300公里/小时的速度让人惊叹,但大多数情况下汽车的真正价值在于,在日常限速范围内安全可靠地行驶。”
传统计算方式的路已经快走到尽头,量子计算正成为各国研发的重点。量子计算是全新计算模式,它不同于当前数据中心、云环境、PC和其他设备中的数字计算。数字计算需要把数据编码为二进制数字(比特位),每个比特位处于两个确定状态中的一个(0或1)。然而,量子计算使用量子位,后者可以同时处于多个状态。因此,量子位上的操作可以实现并行的大量计算。
从本质上说,量子计算就是并行计算的终极目标,有攻克传统计算机无解难题的巨大潜力。例如,量子计算机可以模拟自然环境来推进化学、材料科学和分子建模等领域的科研工作。从美国到欧洲,从顶尖科研机构到科技企业巨头,围绕量子技术的攻关已全面展开,量子革命引发的新一轮科技竞赛如火如荼。
比如,谷歌在2017年4月份宣布推出49量子位处理器。谷歌首席科学家John Martinis曾公开表示:为率先登顶“量子霸权”,他所带领的团队正在利用49量子比特模拟系统攻克经典计算机无法解出的难题。