泄露的基准测试表明Meta Llama 3.1 405B模型的性能可能超过OpenAI GPT-4o

2024 年 4 月,Meta 推出了新一代最先进的开源大型语言模型Llama 3。前两个模型 Llama 3 8B 和 Llama 3 70B为同类规模的 LLM 树立了新的基准。然而,在短短三个月内,其他几个 LLM 的性能已经超过了它们。

Meta 已经透露,其最大的 Llama 3 型号将拥有超过 4000 亿个参数,目前仍在训练中。今天,LocalLLaMA 子论坛泄露了即将推出的 Llama 3.1 8B、70B 和 405B 模型的早期基准测试结果。泄露的数据表明,Meta Llama 3.1 405B 可以在几个关键的人工智能基准测试中超越目前的领先者 OpenAI 的 GPT-4o。这对开源人工智能社区来说是一个重要的里程碑,标志着开源模型可能首次击败目前最先进的闭源 LLM 模型。

Meta 在"Llama 3"发布会上表示:

我们致力于开放式人工智能生态系统的持续增长和发展,以负责任的方式发布我们的模型。我们一直坚信,开放会带来更好、更安全的产品、更快的创新和更健康的整体市场。这对 Meta 有利,对社会也有利。

如基准测试所示,Meta Llama 3.1 在 GSM8K、Hellaswag、boolq、MMLU-humanities、MMLU-other、MMLU-stem 和 winograd 等多项测试中均优于 GPT-4。但是,它在 HumanEval 和 MMLU-social sciences 方面却落后于 GPT-4。

值得注意的是,这些数据来自 Llama 3.1 的基本模型。要充分释放模型的潜力,对其进行教学调整非常重要。随着 Llama 3.1 模型指令版本的发布,其中许多结果可能会有所改善。

尽管 OpenAI 即将推出的 GPT-5 预计将具备先进的推理能力,可能会挑战 Llama 3.1 在 LLM 领域的潜在领导地位,但 Llama 3.1 在 GPT-4o 中的强劲表现仍然彰显了开源人工智能开发的力量和潜力。这种持续的进步可能会使获取尖端人工智能技术的途径更加民主化,并加速技术行业的创新。

感谢大家花时间阅读我的文章,你们的支持是我不断前进的动力。期望未来能为大家带来更多有价值的内容,请多多关注我的动态!

相关推荐
Dimpels3 小时前
CANN ops-nn 算子解读:AIGC 批量生成中的 Batch 处理与并行算子
开发语言·aigc·batch
Yaozh、3 小时前
【神经网络中的Dropout随机失活问题】
人工智能·深度学习·神经网络
墩墩冰3 小时前
计算机图形学 实现直线段的反走样
人工智能·机器学习
Pyeako3 小时前
深度学习--卷积神经网络(下)
人工智能·python·深度学习·卷积神经网络·数据增强·保存最优模型·数据预处理dataset
OPEN-Source3 小时前
大模型实战:搭建一张“看得懂”的大模型应用可观测看板
人工智能·python·langchain·rag·deepseek
zzz的学习笔记本3 小时前
AI智能体时代的记忆 笔记(由大模型生成)
人工智能·智能体
AGI-四顾3 小时前
文生图模型选型速览
人工智能·ai
大尚来也3 小时前
一篇搞懂AI通识:用大白话讲清人工智能的核心逻辑
人工智能
Coder_Boy_3 小时前
Deeplearning4j+ Spring Boot 电商用户复购预测案例
java·人工智能·spring boot·后端·spring
风指引着方向3 小时前
动态形状算子支持:CANN ops-nn 的灵活推理方案
人工智能·深度学习·神经网络