Meta推出开源大模型Llama 3
2024-04-19
来源:每日经济新闻
当地时间 4 月 18 日,AI 领域迎来重磅消息,Meta正式发布了人们等待已久的开源大模型Llama 3。
与此同时,Meta 首席执行官扎克伯格宣布:基于最新的 Llama 3 模型,Meta 的 AI 助手现在已经覆盖 Instagram、WhatsApp、Facebook 等全系应用,并单独开启了网站。另外还有一个图像生成器,可根据自然语言提示词生成图片。
Meta 首席执行官马克 · 扎克伯格在一段视频中表示,该助理可以回答问题、制作动画和生成图像。
扎克伯格在 Facebook 上发帖:Big AI news today
Meta 首席执行官马克 · 扎克伯格在视频中表示:我们相信,Meta AI 现在是你可以自由使用的最智能的人工智能助手。Meta AI 内置于 WhatsApp、Instagram、Facebook 和 Messenger 应用程序的搜索框中,因此用户可以轻松地提出可以通过新工具回答的问题。
扎克伯格表示,Meta 提供的生成式 AI 能力在免费产品中性能是最强大的。
在 Facebook、Instagram、WhatsApp 和 Messenger 上,用户现在可以借助 Meta AI 进行搜索,无需在应用程序之间切换:
当你浏览信息流的时候,还可以直接从帖子中向 Meta AI 询问更多信息:
图像生成器带来的玩法更加有趣,Imagine 功能带来了从文本实时创建图像。这一功能的测试版从今天开始在美国的 WhatsApp 和 Meta AI 网络体验上推出。
开始打字时,你会看到一个图像出现,每多输入几个字母,图像都会发生变化:
Meta 表示,Llama 3 在多个关键的基准测试中性能优于业界先进同类模型,其在代码生成等任务上实现了全面领先,能够进行复杂的推理,可以更遵循指令,能够可视化想法并解决很多微妙的问题。
Llama 3 的主要亮点包括:
基于超过 15T token 训练,相当于 Llama 2 数据集的 7 倍还多;
支持 8K 长文本,改进的 tokenizer 具有 128K token 的词汇量,可实现更好的性能;
在大量重要基准中均具有最先进性能;
新能力范畴,包括增强的推理和代码能力;
训练效率比 Llama 2 高 3 倍;
带有 Llama Guard 2、Code Shield 和 CyberSec Eval 2 的新版信任和安全工具。
刚刚发布的 8B 和 70B 版本 Llama 3 模型已用于 Meta AI 助手,同时也面向开发者进行了开源,包括预训练和微调版本。
最新发布的 8B 和 70B 参数的 Llama 3 模型可以说是 Llama 2 的重大飞跃,由于预训练和后训练(Post-training)的改进,本次发布的预训练和指令微调模型是当今 8B 和 70B 参数规模中的最佳模型。与此同时,后训练过程的改进大大降低了模型出错率,进一步改善了一致性,并增加了模型响应的多样性。
Llama 3 将数据和规模提升到新的高度。Meta 表示,Llama 3 是在两个定制的 24K GPU 集群上、基于超过 15T token 的数据上进行了训练——相当于 Llama 2 数据集的 7 倍还多,代码数据相当于 Llama 2 的 4 倍。从而产生了迄今为止最强大的 Llama 模型,Llama 3 支持 8K 上下文长度,是 Llama 2 容量的两倍。
此外,Meta 还开发了一套新的高质量人类评估数据集。该评估集包含 1800 个提示,涵盖 12 个关键用例:寻求建议、头脑风暴、分类、封闭式问答、编码、创意写作、提取、塑造角色、开放式问答、推理、重写和总结。为了防止 Llama 3 在此评估集上出现过度拟合,Meta 表示他们自己的团队也无法访问该数据集。下图显示了针对 Claude Sonnet、Mistral Medium 和 GPT-3.5 对这些类别和提示进行人工评估的汇总结果。
下图是 Llama 3 预训练模型和其他同等规模模型的比较,前者表现出 SOTA 水平。
为了训练最好的语言模型,管理大型、高质量的训练数据集至关重要。Meta 在预训练数据上投入了大量成本。Llama 3 使用超过 15T 的 token 进行了预训练,这些 token 都是从公开来源收集的。总体上讲,Llama 3 的训练数据集是 Llama 2 使用的数据集的七倍多,并且包含四倍多的代码。为了为即将到来的多语言用例做好准备,超过 5% 的 Llama 3 预训练数据集由涵盖 30 多种语言的高质量非英语数据组成。但是,Llama 3 在这些语言上的性能水平预计不会与英语相同。
为了确保 Llama 3 接受最高质量数据的训练,研究团队开发了一系列数据过滤 pipeline,包括使用启发式过滤器(filter)、NSFW 过滤器、语义重复数据删除方法和文本分类器来预测数据质量。
研究团队发现前几代 Llama 非常擅长识别高质量数据,因此 Meta 使用 Llama 2 为给 Llama 3 提供支持的文本质量分类器生成训练数据。
研究团队还进行了广泛的实验,以评估出在最终预训练数据集中不同来源数据的最佳混合方式,最终确保 Llama 3 在各种用例(包括日常问题、STEM、编码、历史知识等)中表现良好。
Meta 表示,最大的 Llama 3 参数超过 400B,虽然这些机型仍在训练中,但在接下来的几个月中也将陆续发布,新功能包括多模态、多语言对话能力、更长的上下文窗口以及更强的整体能力。
Meta 希望 Llama 3 能赶上 OpenAI 的 GPT-4。不过知情人士透露,因为研究人员尚未开始对 Llama 3 进行微调,所以尚未决定 Llama 3 是否将是多模态模型。微调是开发人员为现有模型提供额外数据的过程,以便它可以学习新信息或任务。较大的模型通常会提供更高质量的答复,而较小的模型往往会更快的提供答复。有消息称,正式版的 Llama 3 将会在今年 7 月正式推出。
Meta 还宣布与 Alphabet 的谷歌建立新的合作伙伴关系,在助手的答复中包括实时搜索结果,作为与微软必应现有合作的补充。随着此次更新,Meta AI 助手正在扩展到美国以外的十多个市场,包括澳大利亚、加拿大、新加坡、尼日利亚和巴基斯坦。考克斯说,Meta" 仍在努力以正确的方式在欧洲做到这一点 "。欧洲的隐私规定更加严格,即将出台的人工智能法案也准备提出披露模型训练数据等要求。