kaiyun官方注册
您所在的位置: 首页> 人工智能> 业界动态> Graphcore宣布学术计划,支持并加速人工智能创新

Graphcore宣布学术计划,支持并加速人工智能创新

研究人员将获得免费的IPU计算资源
2021-01-28
来源:Graphcore
关键词: Graphcore 人工智能 IPU

英国,布里斯托,1月26日——Graphcore今天宣布启动Graphcore学术计划,进一步扩展该公司有关支持大学和其他机构探索人工智能新应用和新方法的长期承诺。

Graphcore学术计划旨在为世界各地有意在研究或教学工作中使用Graphcore系统的研究人员、项目负责人、教授、硕士生、博士生以及博士后们提供支持。

Graphcore学术计划的参与者将获得IPU计算系统的免费访问权限,包含搭载有8个C2 PCIe卡,即16个Colossus MK1 GC2 IPU的Dell DSS8440服务器。该计划的其他裨益还包括Graphcore内部研究人员和工程师提供的支持和定期随访。Graphcore可能还会提供经费申请方面的支持。

Graphcore会为下列领域中的项目和计划优先安排访问权限。但是,Graphcore也会考虑有关IPU创新应用的其他计划:

· 稀疏训练

· 有条件的稀疏计算

· 随机学习优化

· 用于深度学习和计算图网络的新型高效模型

· 小型计算图网络

· 平行计算的新方向

· 本地平行性

· 多模型训练

Graphcore联盟和战略伙伴总监Victoria Rege在宣布启动Graphcore学术计划时表示:“Graphcore的目标是帮助创新者在机器智能领域创造下一个突破。通过在创新的前沿为研究人员和项目负责人提供实质性支持,我们可以共同加速人工智能的发展,真正落实人工智能可以为人类带来的诸多益处。”

在启动Graphcore学术计划之前,IPU研究人员已经展示了一系列突破性的应用,以及与传统处理器系统(例如GPU和CPU)相比在计算工作负载上的大幅加速。

基于他们使用Graphcore IPU开展的研究工作,加州大学伯克利分校的研究人员与谷歌大脑团队成员一起发表了研究深度神经网络训练中的性能和效率方法报告。加州大学伯克利分校的Pieter Abbeel教授表示:“我们与Graphcore合作进行的具有本地更新的深度网络并行训练的研究工作表明,IPU截然不同的处理器架构能够帮助实现新的分布式计算和更大模型训练的方法。研究表明,Graphcore的技术不仅在吞吐量和时延等指标上提供数量上更优化的性能,还从根本上开启了新的方法,以应对那些可能会阻碍人工智能发展的计算挑战。”

论文链接:《具有本地更新的深度神经网络的并行训练》

伦敦帝国理工学院计算机视觉教授Andrew Davison的团队一直在使用Graphcore的IPU解决有关计算机视觉解释周遭世界的一些挑战。他们的研究工作展示了如何在IPU上使用高斯置信传播来解决捆绑调整的经典计算机视觉问题。他表示:“我带领的团队是第一批基于Graphcore IPU进行研究并发表研究成果的团队之一。这是一项在数量上和质量上都能够实现收益的技术。在我们的计算机视觉工作中,我们看到IPU的性能优于传统芯片架构。IPU也扩大了我们对该领域计算潜力的理解。”

论文链接:《图形处理器上的捆绑调整》

布里斯托大学的研究人员使用Graphcore IPU开发新技术,用以管理CERN大型强子对撞机的实验数据。布里斯托大学物理学教授Jonas Rademacker表示:“我们研究了Graphcore IPU对粒子物理学中发现的几个计算问题的适用性,这些计算问题对于我们在CERN进行的LHCb实验的研究至关重要。我们所展示的功能和性能提升,表明了IPU独特架构的多功能性。此外,对于我们正在进行的、探索IPU处理粒子物理学中庞大且快速增长的数据集能力的研究工作来说,Graphcore对我们一直以来的支持至关重要。”

论文链接:《Graphcore IPU在粒子物理学的应用潜力的研究》


本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306116;邮箱:aet@chinaaet.com。
Baidu
map