
【新智元导读】o3 和 o4-mini 视觉推理突破,竟未引用他人成果?一名华盛顿大学博士生发出质疑,OpenAI 研究人员对此回应:不存在。
在视觉感知方面,o3 和 o4-mini 在思维链中进行图像推理, 代表了一个重要突破。
华盛顿大学计算机科学博士生施惟佳站出来表示,o3 和 o4-mini 可能用到了她之前的研究 Visual Sketchpad 。


论文链接:visualsketchpad.github.io/
这项发表于 24 年研究中,曾提出通过可视化辅助增强模型推理。一时间,这一猜测如同一石激起千层浪。
更猛烈的炮火来自滑铁卢大学 CS 助理教授、谷歌 DeepMind 高级研究科学家陈文虎。
他表示,「OpenAI 既不承认也不引用任何相关工作。这真可悲。」

领导 OpenAI 感知团队的华人科学家 Jiahui Yu 表示:「确实不知道,但看起来很酷。」

OpenAI 的内部员工 Brandon McKinzie 表示,一眼看上去,与我们研究的有很大不同。而且 o3 和 o4-mini 行为都是自发的表现。

随后,这引发了关于 o3 视觉推理能力的大讨论。
但 OpenAI 陷入争议的不止是视觉推理,在数学基准测试中被爆出「作弊」!

视觉推理大辩论
首先登场的是 Brandon McKinzie。
他瞥过一眼 Visual Sketchpad,认为 OpenAI 的技术与之完全不同:
与我们之前做的事情完全不同,值得注意的是,o3 和 o4-mini 中的行为完全是由大规模强化学习(RL)产生的。
我们只是给它们提供了访问 Python 和操作图像的能力,其余的都交给了模型自己去处理。
但华盛顿大学的博士生胡雨石(Yushi Hu),对此并不完全认同。
模型又是如何学会操作图像的?
他猜测到 OpenAI 可能使用了 SFT 数据,和谢赛宁 V * 论文或可视化草稿本论文类似。

此时,另一个华人 AI 大牛谢赛宁加入了辩论。
他提出了「用图思考」的更深入的思考。

谢赛宁:识别已死,视觉永生
关于「用图思考」的概念,谢赛宁有 5 点进一步的思考。

1. 零样本工具使用有局限性。
不能仅仅调用一个物体检测器就实现视觉搜索。
这也是为什么像 VisProg、ViperGPT、Visual-sketchpad 这样的方式难以泛化或扩展的原因。
它们更像是「外挂式工具调用」,而不是系统性能力。
谢赛宁在 V * 项目中就专注于这一点,但两年前他还没有意识到强化学习(RL)会变得这么强大,因此只能依靠监督微调(SFT)来训练检测头。
这种方式虽然能跑通,但速度慢,训练过程也颇为痛苦。

2. 视觉搜索必须是多模态大模型的原生组件,且要端到端整合。
3. 如果所使用的工具本身是简单、低层次的------比如基础的 Python 图像处理函数,而不是像 Faster R-CNN 这样的大模型------它们就可以直接被整合进端到端系统。
一旦强化学习规模化,这些简单工具就能变成「视觉基元」(visual primitives),模型可以自由组合它们,从而构建出可扩展的视觉能力。
4. 大家应该继续发掘这些视觉基元。
它们绝不仅仅是图像处理函数,也应该包括对视频、三维数据的处理方式,未来的视觉系统需要构建在更广泛的「感知基础件」之上。
5. 谢赛宁认为大多数传统的视觉识别模型已经「过时」了。
正如 Ross Girshick 所说,它们本质上就是「解析器」(parsers)。但视觉本身没有死,反而比以往任何时候都更有生命力、更令人兴奋。

视觉识别模型已过时
此外,谢赛宁爆出了更大的消息:为 OpenAI 新模型「用图思考」奠定基础的 Bowen Cheng、Ji Lin,的确与他讨论过多模态基础相关话题。

而谢赛宁的 V * 从 GPT-4V 的 55% 性能跃升至 o3 的 95.7%。
看到一个艰难的基准测试被解决,他感到一种深深的满足感:
这意味着视觉搜索,正成为多模态模型推理的一个基本组成部分,就像视觉对人类的意义一样。
然而,他认为不要只是紧跟 OpenAI 的步伐。
学术界需要向前推进,构建那些不仅仅是眼下相关的东西,而是能够塑造未来的事物------
也许还能够启发像 OpenAI 这样的伟大公司。
V * 证明学术界可以做到。
谢赛宁的推文停留在转发微软 VP Nando de Freitas 的推文:
强化学习并非一切......
类似的说法只是宣传。

这就是对 OpenAI 的 Brandon McKinzie 的「一切能力都从 RL 训练涌现」的一种委婉的反驳。

o3 数学成绩仅为 10%,评测结果再陷争议
除了图像推理,o3 在数学基准的成绩单,也受到了外界质疑。
去年 12 月,OpenAI 官宣 o3 时,声称模型在 FrontierMath 基准测试中正确率超 25%。
当时,业内其他顶尖模型的得分普遍低于 2%,o3 的表现无疑令人瞩目。

然而,这一亮眼的成绩似乎只是 OpenAI 内部测试的「理想状态」。
OpenAI 首席研究官 Mark Chen 在直播中称,「为 o3 配置激进的测试时计算(test-time compute)后,我们能把成绩提高到 25% 以上。」
显然,25% 得分来自一个计算资源更强大的 o3 版本,也就是上周发布的满血版。
针对满血 o3,创建 FrontierMath 基准的研究机构 Epoch AI,发布了独立测试结果:o3 得分仅为 10%,远低于 OpenAI 声称最高成绩 25%。

这并不意味着,OpenAI 故意造假。
OpenAI 去年 12 月公布的基准测试中,也给出了一个与 Epoch 实测一致的「下界得分」。
Epoch 补充说,测试结果的差异可能源于以下原因:
-
OpenAI 内部测试使用了更强大的框架,投入了更多测试时计算
-
测试所采用的 FrontierMath 数据集版本不同:OpenAI 可能使用的是 290 题的 frontiermath‑2025‑02‑28‑private;Epoch 使用的是 180 题的 frontiermath‑2024‑11‑26。
与此同时,ARC Prize 基金会在 X 上发帖证实,预发布版 o3 与公开版并非同一模型,后者「专门为聊天/产品场景调校」。
他们还指出,目前发布的各档 o3 计算级别(compute tiers),都比跑基准时用的版本小。

一般而言,算力档位越高,基准成绩也会越好。
此外,OpenAI 技术团队成员 Wenda Zhou 在上周一次直播中坦言,相较于去年 12 月,经过优化后的 o3 更适合现实世界的用例,更侧重于真实使用场景与推理速度。因此,它在基准测试上可能会出现一些「偏差」。
这样的成绩落差,引起了不少网友质疑。
但严格来说,问题并不在于 o3 的实际表现。OpenAI 旗下的其他模型,如 o3‑mini‑high 和 o4‑mini,在 FrontierMath 上的表现都优于 o3。

而且,奥特曼表示,计划在未来几周推出更强大的 o3‑pro。
这意味着,o3 的基准测试争议更多地是「面子问题」,而非 OpenAI 技术短板。

不过,这再次提醒我们:AI 基准测试的结果不能只看表面,尤其当数据来自一家急于推广服务的公司时。
基准测试,权威性何在?
其实,o3 的风波并非是孤例。
科技大厂竞相推出新模型吸引眼球,「基准测试争议」在 AI 行业已屡见不鲜。
今年 1 月,Epoch 还曾因在 o3 发布后,才披露得到了 OpenAI 资金支持而饱受批评。
甚至,许多为 FrontierMath 贡献题目的学者,包括陶哲轩等大牛在内,直到消息公开后才得知 OpenAI 的介入,瞬间引发全网关于基准测试公平性质疑。

还有前段时间,Grok 3 发布之后,其基准测试遭到 OpenAI 研究员谴责------用基于 64 个样本进行多数投票刷分。

还有最近一次的乌龙,Meta 用「特供版」Llama 4 去刷分登上了 Chatbot Arena 榜单 TOP 2。
有趣的是,在最新榜单中,Llama 4 排名跌至 32 位,不滚动屏幕根本找不到它。

总而言之,基准测试「水分」已成为一个不可忽视的问题,关键在于每个人理性看待 AI 成绩单。
参考资料: