Llama 4 训练作弊爆出惊天丑闻!AI 大佬愤而辞职,代码实测崩盘全网炸锅

【新智元导读】Llama 4 本该是 AI 圈的焦点,却成了大型翻车现场。开源首日,全网实测代码能力崩盘。更让人震惊的是,模型训练测试集被曝作弊,内部员工直接请辞。

Meta 前脚刚发 Llama 4,后脚就有大佬请辞了!

一亩三分地的爆料贴称,经过反复训练后,Llama 4 未能取得 SOTA,甚至与顶尖大模型实力悬殊。

为了蒙混过关,高层甚至建议:

在后训练阶段中,将多个 benchmark 测试集混入训练数据。

在后训练阶段中,将多个 benchmark 测试集混入训练数据。

最终目的,让模型短期提升指标,拿出来可以看起来不错的结果。

这位内部员工 @dliudliu 表示,「自己根本无法接受这种做法,甚至辞职信中明确要求------不要在 Llama 4 技术报告中挂名」。

另一方面,小扎给全员下了「死令」------4 月底是 Llama 4 交付最后期限。

在一系列高压之下,已有高管提出了辞职。

其实,Llama 4 昨天开源之后,并没有在业内得到好评。全网测试中,代码能力极差,实力不如 GPT-4o。

网友 Flavio Adamo 使用相同的提示词,分别让 Llama 4 Maveric 和 GPT-4o 制作一个旋转多边形的动画。

可以看出,Llama 4 Maveric 生成的多边形并不规则而且没有开口。小球也不符合物理规律,直接穿过多边形掉下去了。

相比之下 GPT-4o 制作的动画虽然也不完美,但至少要好得多。

甚至,有人直接曝出,Llama 4 在 LMarena 上存在过拟合现象,有极大的「作弊」嫌疑。

而如今,内部员工爆料,进一步证实了网友的猜想。

沃顿商学院教授 Ethan Mollick 一语中的,「如果你经常使用 AI 模型,不难分辨出哪些是针对基准测试进行优化的,哪些是真正的重大进步」。

不过,另一位内部员工称,并没有遇到这类情况,不如让子弹飞一会儿。

内部员工爆料,Llama 4 训练作弊?

几位 AI 研究人员在社交媒体上都「吐槽」同一个问题,Meta 在其公告中提到 LM Arena 上的 Maverick 是一个「实验性的聊天版本」。

如果看得仔细一点,在 Llama 官网的性能对比测试图的最下面一行,写着「Llama 4 Maverick optimized for conversationality.」

翻译过来就是「针对对话优化的 Llama 4 Maverick」------似乎有些「鸡贼」。

这种「区别对待」的会让开发人员很难准确预测该模型在特定上下文中的表现。

AI 的研究人员观察到可公开下载的 Maverick 与 LM Arena 上托管的模型在行为上存在显著差异。

而就在今天上午,已经有人爆料 Llama 4 的训练过程存在严重问题!

即 Llama 4 内部训练多次仍然没有达到开源 SOTA 基准。

Meta 的领导层决定在后训练过程中混合各种基准测试集------让 Llama 4「背题」以期望在测试中取得「好成绩」。

这个爆料的原始来源是「一亩三分地」,根据对话,爆料者很可能来自于 Meta 公司内部。

对话中提到的 Meta AI 研究部副总裁 Joelle Pineau 也申请了 5 月底辞职。(不过,也有网友称并非是与 Llama4 相关)

但是根据 Meta 的组织架构体系,Pineau 是 FAIR 的副总裁,而 FAIR 实际上是 Meta 内部与 GenAI 完全独立的组织,GenAI 才是负责 Llama 项目的组织。

GenAI 的副总裁是 Ahmad Al-Dahle,他并没有辞职。

Llama 4 才刚刚发布一天,就出现如此重磅的消息,让未来显得扑朔迷离。

代码翻车,网友大失所望

在昨天网友的实测中,评论还是有好有坏。

但是过去一天进行更多的测试后,更多的网友表达了对 Llama 4 的不满。

在 Dr_Karminski 的一篇热帖中,他说 Llama-4-Maverick------总参数 402B 的模型------在编码能力方面大致只能与 Qwen-QwQ-32B 相当。

Llama-4-Scout------总参数 109B 的模型------大概与 Grok-2 或 Ernie 4.5 类似。

在评论中,网友响应了这个判断。

有人说 Llama 4 的表现比 Gemma 3 27B 还要差。

有人认为 Llama 4 的表现甚至和 Llama 3.2 一样没有任何进步,也无法完成写诗。

其他用户在测试后也表达了同样的观点,Llama 4 有点不符合预期。

网友 Deedy 也表达了对 Llama 4 的失望,称其为「一个糟糕的编程模型」。

他表示,Scout (109B) 和 Maverick (402B) 在针对编程任务的 Kscores 基准测试中表现不如 4o、Gemini Flash、Grok 3、DeepSeek V3 和 Sonnet 3.5/7。

他还给出了贴出了 Llama 4 两个模型的一张测试排名,结果显示这两个新发布的模型远远没有达到顶尖的性能。

网友 anton 说,Llama 4「真的有点令人失望」。

他表示自己不会用它来辅助编码,而 Llama 4 的定位有点尴尬。

anton 认为 Llama 4 的两个模型太大了,不太好本地部署。他建议 Meta 应该推出性能优秀的小模型,而不是去追求成为 SOTA。

「因为目前他们根本做不到。」他写道。

参考资料:

x.com/natolambert...

x.com/karminski3/...

x.com/abacaj/stat...

相关推荐
訾博ZiBo1 小时前
AI日报 - 2025年4月8日
人工智能
James. 常德 student1 小时前
深度学习之微调
人工智能·深度学习
liuyunshengsir1 小时前
chromadb 安装和使用
人工智能·大模型
FIT2CLOUD飞致云1 小时前
全面支持MCP协议,开启便捷连接之旅,MaxKB知识库问答系统v1.10.3 LTS版本发布
人工智能·开源
云水木石1 小时前
ChatGPT-4o 在汉字显示上进步巨大
人工智能·chatgpt
Mr_LeeCZ2 小时前
PyTorch 深度学习 || 7. Unet | Ch7.1 Unet 框架
人工智能·深度学习·机器学习
James. 常德 student2 小时前
多GPU训练
人工智能·pytorch·深度学习
Jozky862 小时前
大语言模型在端到端智驾中的应用
人工智能·语言模型·自然语言处理
脑洞专家2 小时前
基于改进的点线融合和关键帧选择的视觉SLAM 方法
人工智能·机器学习·计算机视觉
明月看潮生4 小时前
青少年编程与数学 02-015 大学数学知识点 09课题、专业相关性分析
人工智能·青少年编程·数据科学·编程与数学·大学数学