kaiyun官方注册
您所在的位置: 首页> 模拟设计> 业界动态> Meta第二代自研AI芯投产

Meta第二代自研AI芯投产

摆脱英伟达依赖 为买H100小扎狂砸数百亿美元
2024-02-04
来源:新智元
关键词: META AI 英伟达 H100

Meta的第二代自研芯片正式投产!小扎计划今年部署ArtemisAI芯片为AI提供算力,以减少对英伟达GPU的依赖。

Meta第二代自研AI芯片Artemis,今年正式投产!

据悉,新的芯片将被用于数据中心的推理(Inference)任务,并与英伟达等供应商的GPU一起协同工作。

对此,Meta的发言人表示:「我们认为,我们自主开发的加速器将与市面上的GPU相得益彰,为Meta的任务提供最佳的性能与效率平衡。」

除了更高效地运行的推荐模型外,Meta还需要为自家的生成式AI应用,以及正在训练的GPT-4开源竞品Llama 3提供算力。

Meta的AI贴纸功能,此前在Messenger、Instagram和WhatsApp上都处于测试阶段

OpenAI工程师Jason Wei在Meta的一次AI活动中听到,Meta现在有足够的算力来训练Llama 3和4。Llama 3计划达到GPT-4的性能水平,但仍将免费提供

不难看出,Meta的目标非常明确——在减少对英伟达芯片依赖的同时,尽可能控制AI任务的成本。

Meta成英伟达大客户

Meta CEO小扎最近宣布,他计划到今年年底部署35万颗英伟达H100GPU,总共将有约60万颗GPU运行和训练AI系统。

这也让Meta成为了继微软之后,英伟达最大的已知客户。

2.jpg

小扎表示,目前Meta内部正在训练下一代模型Llama 3。

在35万块H100上训练的Llama 3,无法想象会有多大!

Omdia的研究数据显示,Meta在2023年H100的出货量为15万块,与微软持平,且是其他公司出货量的3倍。

小扎称,「如果算上英伟达A100和其他AI芯片,到2024年底,Meta将拥有近60万个GPU等效算力」。

性能更强、尺寸更大的模型,导致更高的AI工作负载,让成本直接螺旋式上升。

据《华尔街日报》的一位匿名人士称,今年头几个月,每有一个客户,微软每月在Github Copilot上的损失就超过20美元,甚至某些用户每月的损失高达80美元,尽管微软已经向用户收取每月10美元的费用。

之所以赔钱,是因为生成代码的AI模型运行成本高昂。 如此高的成本,让大科技公司们不得不寻求别的出路。

除了Meta之外,OpenAI和微软也在试图打造自己专有的AI芯片以及更高效的模型,来打破螺旋式上升的成本。

weidian.jpg

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306116;邮箱:aet@chinaaet.com。
Baidu
map