出品|搜狐科技

最强开源模型Llama 3.1发布,推理成本是GPT-4o一半;小扎:想保竞争优势需靠开源

作者|郑松毅

长达以久的开源与闭源技术路线之争,今天要有个结果了?

今日凌晨,Meta正式发布Llama 3.1系列模型。

搜狐科技从Meta官网获悉,Llama 3.1系列模型共包含8B、70B和405B三个尺寸,更大上下文提升至128K,代码生成、复杂推理能力得到优化。

开源从此不再只是追赶闭源

谁说开源大模型只配陪跑?

据了解,超大杯Llama 3.1 405B被称为全球目前最强大的开源模型,且实力与GPT等主流闭源大模型旗鼓相当。

从某种角度来说,从今天起,或无需再争论开源与闭源的优劣,Llama 3.1用实力证明了技术路线之争并不影响大模型最终性能表现。

可以说,Meta在Llama 3.1模型训练上也是大费苦心,Llama 3.1 405B使用了超过15万亿个token进行训练。

为了使模型训练达到预期效果,Meta更是直接用上了超过16000个H100 GPU对Llama 3.1进行特训,这也是之一次Meta在如此大规模上训练Llama模型。

话不多说,先上一张Meta官方给出的大模型通用基准测试图表,来看看Llama 3.1究竟实力如何。

从基准测试结果来看,超大杯Llama 3.1的大部分表现超过了GPT-4(0125),与之一梯队的最新闭源大模型GPT-4 Omni和Claude 3.5 Sonnet相比不分上下。

具体来看,在MMLU标准中,虽超大杯Llama 3.1得分为88.6,稍低于GPT-4 Omni,但也表明其在多任务知识理解能力方面表现优异。

在NIT/Multi-needle标准中,超大杯Llama 3.1更是取得98.1的高分,表明其在复杂信息处理的能力上也堪称一绝。

在代码生成能力方面(Human Evaluation主要是负责测试代码理解和生成能力),超大杯Llama 3.1与GPT-4 Omni、Claude 3.5 Sonnet相比也稍占上风。

除了超大杯,8B、70B两个尺寸的Llama 3.1模型也上演了“以小博大”的好戏。

从基准测试结果来看,Llama 3.1 8B几乎完胜Gemma 2 9B 1T。而Llama 3.1 70B的表现也是优于Mixtral 8x22B Instruct和GPT 3.5 Turbo。

Meta官方表示,“借助 Llama 3.1,我们评估了超过 150 个涵盖多种语言的基准数据集的性能。这些结果表明 405B 可以与 GPT-4、Claude 2 和 Gemini 等领先的闭源模型竞争。”

“我们还使用 405B 参数模型来提高较小模型的训练后质量,使得研究团队能够每轮创建更高质量的合成数据对模型进行迭代训练。帮助小模型在于参数量相近的模型相比时,同样展现出竞争力。”

小扎发文细谈开源之路

伴随Llama 3.1模型发布,扎克伯格也忍不住发文《Open Source AI is the Path Forward》(开源人工智能是未来发展方向)致辞。

小扎说道,“在高性能计算的早期,主要科技公司都大力投资于开发自己的闭源 Unix 版本。当时很难想象其他任何 *** 能够开发出如此先进的软件。然而最终,开源 Linux 变得流行起来。最初是因为它允许开发人员随意修改其代码并且更加经济实惠,随着时间的推移,因为它变得更加先进、更加安全,并且拥有比任何闭源 Unix 更多功能的更广泛生态系统的支持。”

“我相信人工智能会以类似的方式发展。如今,有几家科技公司正在开发领先的封闭模型。但开源很快在缩小差距。去年,Llama 2 只能与边缘之后的旧一代模型相提并论。而今年,Llama 3 在一些领域具有竞争力,甚至在某些方面领先于更先进的模型。从明年开始,我们预计未来的 Llama 模型将成为行业中更先进的。但即使在那之前,Llama 已经在开放性、可修改性和成本效益方面处于领先地位。”

谈及开源对于开发者的益处,小扎表示,“我们需要掌控自己的命运,不要被困在封闭的供应商中。相较于闭源,开源软件往往更安全,因为它的开发更加透明。”

“开发者可以在他们自己的基础设施上运行 Llama 3.1 405B 上的推理,成本大约是使用像 GPT-4o 这样的封闭模型的 50%,适用于用户界面和离线推理任务。”

很多人问,Meta会不会担心开源使Llama失去竞争优势,小扎淡定表示,“大模型激烈竞争还会继续,相较于下一代模型,任何模型不会永远保持优势。Llama 要成为行业标准,关键在于一代又一代地保持竞争力、高效性和开放性。”

“Meta 和封闭模型提供商之间的一个关键区别是,出售 AI 模型的访问权限并不是我们的商业模式。通过与 Open Compute Project 共享我们的服务器、 *** 和数据中心设计,并让供应链标准化我们的设计,我们节省了数十亿美元。我们通过开源领先工具如 PyTorch、React 等受益于生态系统的创新。”

谈及开源对于世界的益处,小扎相信,开源对于积极的人工智能未来是必要的。人工智能拥有比任何其他现代技术更大的潜力,可以提高人类的生产力、创造力和生活质量,加速经济增长,同时在医学和科学研究领域推动进展。开源将确保全球更多人能够分享人工智能的好处和机会,避免权力过度集中在少数公司手中,同时可以更均衡、更安全地在社会各个领域推广这项技术。

“目前存在关于开源 AI 模型安全性的辩论,我认为开源 AI 将比其他选择更安全。我认为各国 *** 会得出结论,支持开源符合他们的利益,因为这将使世界更加繁荣和安全。开源人工智能代表着世界更好的机会,利用这项技术创造更大的经济机会和安全保障。”

小扎还提到开源对于大模型竞争的意义,“美国的优势在于分散和开放的创新。有人认为我们必须关闭我们的模式,以防止中国获得对它们的访问,但我认为这不会奏效,只会给美国及其盟友带来不利。封闭模型的世界会导致少数几家大公司以及我们的地缘政治对手能够访问领先的模型,而初创公司、大学和小型企业则错失机会。”

“将美国的创新限制在封闭开发中会增加我们根本无法领先的可能性。相反,我认为我们更好的策略是建立一个强大的开放生态系统,并让我们领先的公司与我们的 *** 和盟友密切合作,确保他们能够更好地利用最新进展,并在长期内取得可持续的先发优势。”小扎说。

“我相信 Llama 3.1 版本将成为行业的一个转折点,大多数开发人员将开始主要使用开源,我期待这种 *** 从这里开始不断增长。希望您能加入我们,一起努力将人工智能的好处带给世界上的每个人。”