3410亿参数自研大模型Grok宣布开源
2024-03-18
来源:智东西
3 月 18 日消息,就在刚刚,马斯克的 AI 创企xAI正式发布了此前备受期待大模型Grok-1,其参数量达到了 3140 亿,远超 OpenAI GPT-3.5 的 1750 亿。
这是迄今参数量最大的开源大语言模型,遵照 Apache 2.0 协议开放模型权重和架构。
Grok-1 是一个混合专家(Mixture-of-Experts,MOE)大模型,这种 MOE 架构重点在于提高大模型的训练和推理效率,形象地理解,MOE 就像把各个领域的 " 专家 " 集合到了一起,遇到任务派发给不同领域的专家,最后汇总结论,提升效率。决定每个专家做什么的是被称为 " 门控网络 " 的机制。
xAI 已经将 Grok-1 的权重和架构在 GitHub 上开源。
GitHub 地址:
https://github.com/xai-org/grok-1?tab=readme-ov-file
目前 Grok-1 的源权重数据大小大约为 300GB。
截至北京时间 3 月 18 日上午 7 时许,Grok-1 项目收获了 3400 颗星。
Grok-1 是马斯克 xAI 自 2023 年 7 月 12 日成立以来发布的首个自研大模型。xAI 特别强调说这是他们自己从头训练的大模型。Grok-1 没有针对特定应用进行微调。
xAI 是马斯克去年刚刚成立的明星 AI 创企,其目的之一就是与 OpenAI、谷歌、微软等对手在大模型领域进行竞争,其团队来自 OpenAI、谷歌 DeepMind、谷歌研究院、微软研究院等诸多知名企业和研究机构。
此前马斯克刚刚 " 怒喷 "OpenAI 不够 "Open",后脚这就开源了自家的顶级 3410 亿参数自研大模型 Grok-1。虽然马斯克在预热到发布的过程中也 " 放了几次鸽子 ",但最终他并没有食言。
今天,xAI 还公布了 Grok-1 的更多细节:
基础模型基于大量文本数据训练,未针对特定任务进行微调。
3140 亿参数的 Mixture-of-Experts 模型,其对于每个 token,活跃权重比例为 25%。
xAI 从 2023 年 10 月开始使用自定义训练堆栈在 JAX 和 Rust 之上从头开始训练。
但此次 xAI 并没有放出 Grok-1 的具体测试成绩,其与 OpenAI 即将发布的 GPT-5 的大模型王者之战,必将成为业内关注的焦点。
当然,马斯克发大模型,怎么会少的了大佬隔空对线 " 互怼 "?
xAI 官方消息刚刚发布,ChatGPT 的官方账号马上就跟马斯克在 X 平台上进行了互动,在 Grok 官方账号评论下回复道:" 偷了我的笑话。"
马斯克自然不会示弱,马上说请告诉我 OpenAI"Open" 之处在哪里。
马斯克高仿号也马上跑过来添油加醋,说我们都知道是 Sam 在运营 ChatGPT 的账号。
值得一提的是,此次 xAI 发布 Grok-1 消息的封面图片,是由 Midjourney 生成,Grok 给出了提示文本:一个神经网络的 3D 插图,具有透明节点和发光连接,展示不同粗细和颜色的连接线的不同权重(A 3D illustration of a neural network, with transparent nodes and glowing connections, showcasing the varying weights as different thicknesses and colors of the connecting lines)。
原图: