兄弟们,OpenAI最近又放大招了!两项重大更新:o3模型的价格直降80%;发布了全新的o3-pro模型。说实话,看到这个消息我第一反应是------OpenAI这是要跟谷歌死磕到底啊!
先吐槽一下OpenAI的命名
我必须吐槽一下,OpenAI的产品命名简直是灾难。GPT-4、GPT-4o、o3、o3-pro...这都是啥跟啥?
- GPT-4.x:不具备高级推理能力的多模态模型,支持文本和图像
- GPT-4o:"o"代表"omni"(全能),可处理文本、图像和音频
- o3和o3-pro:具备推理能力的多模态模型,这些是"思考型"模型,主要基于文本,图像支持有限
这次的o3-pro简单说就是o3的加强版------给它更多时间思考,它能想得更深。有点像让学霸多做一遍检查,结果肯定更靠谱。
我被o3-pro震撼到的地方
作为一个写代码的程序员,我最关心的还是这玩意儿能不能真正帮到我。前几天我正好在做一个系统架构设计,需要把一个模糊的业务需求拆解成具体的技术方案。
以前用GPT-4o的时候,它给我的答案总是有点...怎么说呢,像是背书一样。虽然看起来挺专业,但总感觉缺了点灵魂。而o3第一次让我感觉到,哦,这家伙真的在"思考"。
举个例子,我让它设计一个分布式任务调度系统。GPT-4o会给你一个标准答案,什么用Redis做队列啦,用Kafka做消息中间件啦。但o3会先问你几个问题:"你的任务量有多大?""对延迟的要求是什么?""失败了能不能重试?"然后才给你一个定制化的方案。
这种感觉就像是,以前是在跟一个刚毕业的实习生讨论,现在突然变成了一个有5年经验的架构师。
而从openai官方给出的性能对比来说:
在编程、数学和科学问题的可靠性方面,o3-pro的得分高于旧版o系列模型。
o3的能力与限制
以下是o3-pro的能力总结:
- 200,000上下文窗口
- 100,000最大输出token
- 知识截止日期为2024年6月1日
- 能支持文件搜索,输入图像,MCP
- 不支持网络搜索,无法生成图像
价格才是重点
重点来了!o3-pro虽然比o3贵10倍,但相比之前的o1-pro,价格直接打了1.3折。每百万token输入20刀,输出80刀。

我简单算了一下,如果我每天用它写代码、做架构设计,一个月下来大概要花...呃,还是不算了,算了心疼。但话说回来,如果它真能帮我提高效率,这钱花得也值。
不过,相对于o3和o3-mini,价格还是很贵的:

实测体验
我迫不及待地去Playground试了试。先来个简单的:
首先尝试让他数一个图片中有多少根手指:
AI错误地回答了5,但是输入图像有6根手指。这可能是因为o3-pro依赖于学习的模式而不是真正的视觉"理解"。它们在数百万张正常手的图像上进行了训练,这些手都是5根手指。所以当它们看到有6根手指的手时,其内部的bias导致其回答5根手指。
然后我又试了个复杂的:让它分析一下6个月内在欧洲推出新产品的可行性。这次它表现就完全不一样了,花了1分39秒,输出了2000多个token,从市场分析到法规要求,从竞争对手到投资回报,面面俱到。这正是o3-pro擅长的推理任务类型。对于深度规划或多因素评估,该模型明显比简单的LLM更有能力。
最后
说了这么多,其实我想表达的是:AI工具的进化速度真的太快了。去年这个时候,我们还在惊叹ChatGPT能写个冒泡排序。现在呢?它都能帮你设计整个系统架构了。
o3-pro的出现,让我看到了AI辅助编程的更多可能性。虽然价格还是有点肉疼,但考虑到它能带来的价值,我觉得还是值得一试的。
对了,听说谷歌也要放大招了,Gemini Ultra据说更猛。这场AI大战越来越精彩了。
你们有试过o3-pro吗?用起来感觉怎么样?欢迎在评论区分享你的体验,咱们一起交流交流。