o1 满血版泄露!奥数题图片推理手拿把掐,奥特曼上线剧透 o2

o1 满血版泄露了!

没想到,OpenAI 还搁那儿 "今年一定" 呢,不少网友已经率先上手体验到了(doge)。

事情是酱婶的:有网友发现,OpenAI 已经在 ChatGPT 官网上部署了完整版 o1,大家伙儿还都能卡 bug 直接用!

最初发现此事的网友,测试确认泄露模型具有奥特曼所说的图像推理能力

**△**图源:𝕏@legit_rumors

而日志也显示该模型就是 o1 本模。

于是,赶在 OpenAI 出手修复之前,网友们抓紧大玩特玩了一波------

满血 o1 到底有多牛

和已经发布的 o1-preview、o1-mini 最直观的不同是,泄露出来的 o1 支持上传附件。

这也就意味着,终于能测测 o1 的多模态能力了。

网友们也不说废话,直接上强度,普特南数学竞赛的证明题截图一贴,甩给满血 o1。

对正整数 n,有 fn(x)=cos(x)cos(2x)cos(3x)...cos(nx)。找出最小的 n,使得 | fn''(0)|>2023。

思考了 18 秒之后,o1 给出答案:18。

答案正确:

再来一道更复杂的,虽然在识图上遇到了一点小问题,但还是稳稳做对了。


在如此惊艳表现之下,似乎正确识别人类史上首张黑洞照片也不算什么了(doge)。

不过嘛,也不是没有翻车案例。比如,让大模型数数图里有多少个三角形。

ID 为 anagh 的𝕏网友,给泄露模型和 GPT-4o 做了个同屏对比:

视频详情

4o 速度很快,给出了错误答案 19。

而满血 o1 花了 1 分 39 秒,狂刷一堆 token...... 给出了不同的错误答案:29。

正确答案是 24。

这个 bug 现在已经修复了。不过,有意思的是,这次模型泄露,持续了整整 3 个小时。

不小心还是故意的?

有网友犀利地点出,这事儿看上去不是 "不小心",而是 "精心策划":

目的是让人们对即将发布的模型有一个预期。

不少网友赞同这样的观点:

奥特曼的目的是测试和炒作。

而由于一切看上去已经部署就绪,甚至有人猜测,o1 完整版的正式上线时间就在未来一周之内。

值得注意的是,就在这次泄露事件之后,奥特曼马上在𝕏上开始了自己的表演:

好家伙,都已经吹上 o2 的风了(还假装上错号......)。

至于为什么是这个时间......

那不得赶在 Anthropic 发布 Claude Haiku 3.5 之前搞点事嘛(doge)。

参考链接:

[1]x.com/legit_rumor...

[2]x.com/koltregaske...

[3]x.com/anaghnairr/...

--- ---

相关推荐
命里有定数4 分钟前
Paper -- 洪水深度估计 -- 利用图像处理和深度神经网络绘制街道照片中的洪水深度图
图像处理·人工智能·dnn·洪水深度·高度估计
Guofu_Liao14 分钟前
大语言模型中Softmax函数的计算过程及其参数描述
人工智能·语言模型·自然语言处理
非自律懒癌患者15 分钟前
Transformer中的Self-Attention机制如何自然地适应于目标检测任务
人工智能·算法·目标检测
IT闫19 分钟前
使用微信小程序调用飞桨PaddleX平台自行训练的模型——微信小程序用训练的牡丹花模型Demo测试
人工智能·paddlepaddle
Jurio.35 分钟前
Conda 管理项目环境
人工智能·python·深度学习·conda·virtualenv·pip
曼城周杰伦1 小时前
自然语言处理:第六十二章 KAG 超越GraphRAG的图谱框架
人工智能·pytorch·神经网络·自然语言处理·chatgpt·nlp·gpt-3
Donvink1 小时前
多模态大语言模型——《动手学大模型》实践教程第六章
人工智能·深度学习·语言模型·自然语言处理·llama
Joyner20181 小时前
pytorch训练的双卡,一个显卡占有20GB,另一个卡占有8GB,怎么均衡?
人工智能·pytorch·python
我爱学Python!1 小时前
解决复杂查询难题:如何通过 Self-querying Prompting 提高 RAG 系统效率?
人工智能·程序人生·自然语言处理·大模型·llm·大语言模型·rag
AI视觉网奇1 小时前
pytorch3d linux安装
linux·人工智能·pytorch