kaiyun官方注册
您所在的位置: 首页> EDA与制造> 业界动态> 这个全球最大的芯片走进了“云”

这个全球最大的芯片走进了“云”

2021-09-23
来源:开云棋牌官网在线客服行业观察
关键词: 芯片

  五个月前,当 Cerebras Systems推出其第二代晶圆级芯片系统 (CS-2) 时,该公司联合创始人兼首席执行官 Andrew Feldman 暗示了公司即将推出的计划,现在这些计划已经实现。

  日前,Cerrebras 和 Cirrascale Cloud Services 推出了 Cerebras Cloud @ Cirrascale 平台,通过 Cirrascale 的云服务提供对 Cerebras 的 CS-2 晶圆级引擎 (WSE) 系统的访问。

  CS-2 机器运行了 850,000 个 AI 优化计算核心,重约 500 磅,安装在加利福尼亚州圣克拉拉的 Cirrascale 数据中心,但该服务将在全球范围内提供,开放访问CS-2 提供给任何有互联网连接和每周 60,000 美元用于训练非常大的 AI 模型的人。

  “对于训练,我们没有发现延迟是一个问题,”Cirrascale 首席执行官 PJ Go 在上周与人工智能硬件峰会同时举行的媒体预发布会上说。

  Feldman 表示同意,并补充说:“如果你要进行 20 小时或更长时间的训练,从克利夫兰到圣何塞的光速可能不是什么大问题。”

  Cirrascale 的 Cerebras Cloud 客户将获得对 Cerebras 软件和编译器包的完全访问权限。

  “编译器工具集位于 Cirrascale 开发的云工具集之下,”Feldman 说。“因此您将进入,您将获得对计算集群、存储、CS-2 的访问权;您将运行您的编译堆栈,您将完成您的工作,您将被设置检查点并存储在 Cirrascale 基础设施中,它将被识别,以便您可以稍后返回该工作。所有这些都已整合在一起。”

  该环境支持 TensorFlow 和 PyTorch 等熟悉的框架,Cerebras Graph Compiler 自动将从业者的神经网络从其框架表示转换为 CS-2 可执行文件。据 Cerebras 称,这消除了对集群编排、同步和模型调整的需要。

  通过每周最低买入——定价设定为每周 60,000 美元、每月 180,000 美元或每年 1,650,000 美元——Cirrascale 客户可以访问整个 CS-2 系统。“共享模式不适合我们,”Feldman 说。该存在的理由的晶圆级制度是为了“作为机器的大,你可以解决你的问题,你可以尽快,”他告诉HPCwire。

  根据 Feldman 的说法,Cerebras 没有透露其 CS 系统的标价,但直接购买 CS-2 系统将使您花费“数百万美元”。

  两位 CEO 都认为“先试后买”是 Cerebras Cloud 产品的动机之一,它将对 CS-2 的功能印象深刻的租用者转变为一个或多个系统的购买者。但这些公司也希望有很大一部分用户坚持使用云模式。

  偏好 OPEX 是一个原因,但这也是技能和经验的问题。谈到这一点,Feldman 说:“关于我们行业的一个鲜为人知的事实是,实际上很少有人能够真正构建大型 GPU 集群,这种情况是多么罕见——需要的技能,而不仅仅是金钱。将大型模型传播到 250 多个 GPU 上的技能可能存在于世界上几十个组织中。”

  Cerebras Cloud 通过基于云的硬件和软件基础设施提供性能,并通过 Cirrascale 门户访问计费、存储和其他服务,从而简化此过程。“对于我们来说,将我们的业务范围扩展到不同类型的客户是一个显而易见的选择,”费尔德曼说。

  Cerebras 的第一个 CS 系统部署是在政府实验室空间(美国能源部是一个根本性的胜利,在 2019 年人工智能硬件峰会上宣布)和商业网站,主要是制药(葛兰素史克是客户)的内部部署。通过将 CS-2 作为托管服务进行访问,Cerebras 正在追求更广泛的组织,从初创公司到财富 500 强公司。

  “我们一直致力于建立这种伙伴关系,”Cerebras Systems 产品副总裁 Andy Hock 在宣传视频中说。“我们开始专注于从头开始训练大型自然语言处理模型,如 BERT,我们将从那里扩展我们的产品。”

  Cirrascale 创始人兼首席技术官 David Driggers 表示:“Cerebras CS-2 处理的工作负载是我们今天无法在 GPU 上完成的。”[这是]一个非常大规模的扩展场景,我们有一个模型,它不能并行化,但它可以处理大量数据。因此,当今最大的 NLP 模型需要大量的数据输入以及大量的计算。由于需要 IO 通信,因此在 [传统] 集群上很难做到这一点。

  Cerebras CS-2 使我们能够利用非常大的内存空间、大型内置网络和大量内核,将 NLP 扩展到我们以前无法做到的高度。“

  参加预简报电话会议的分析师 Karl Freun对合作伙伴关系表示赞同。”Cerebras 最近似乎在全力以赴,客户获胜,第二代 WSE,最近他们大胆声称他们正在构建一个比我们所见过的任何东西都大 1000 倍的大脑规模的 AI,“他告诉HPCwire .

  ”你拥有的是一种非常热门的商品(他们的技术),很多人都想尝试它,但谁又不想花大笔钱购买和部署 CS-2。输入 Cirrascale 和他们的 CS-2 云产品,这将使科学家能够更容易地、至少在某种程度上更实惠地获得业内最大、最快的 AI 处理器。毫无疑问,这将为 Cerebras 的未来创造新的机会,无论是在云中还是在本地。“

  当被问及今天的 AI 芯片不适合未来的 AI 模型的风险时,Freund 说,”如果有的话,Cerebras 是一家公司,其架构正在向冰球前进的方向滑行:巨大的 AI。“




本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306116;邮箱:aet@chinaaet.com。
Baidu
map