OpenAI面向开发者继续提高o1系列模型的调用速率 最高每分钟可调用1000次

早前 OpenAI 推出基于 o1 系列的新模型,分为 o1-preview 预览版和更快更便宜的 o1-mini 版,该系列模型的主要特点是可以解决更复杂推理任务。需要强调的是 o1 模型并不能直接替代 GPT-4o 模型,原因在于 o1 模型仅提高推理能力,但不支持图像功能、函数调用和快速响应时间。

对大多数开发者而言可能需要混合使用 GPT-4o、GPT-4o-mini 和 o1 系列模型,即在不同的使用场景中搭配不同的模型以获得最佳性能。

今天 OpenAI 宣布提高 Tier 5 开发者的 o1 系列模型调用速率,鼓励更多开发者积极使用 o1 系列模型,但目前这仅适用于 5 级开发者,后续 OpenAI 会陆续扩展支持 1~4 级开发者。

此次调整前 o1-preview 模型的调用速率为每分钟 100 个请求,o1-mini 的调用速率则是每分钟 250 个请求;此次调整后 o1-preview 调用速率提高到每分钟 500 个请求,而 o1-mini 调用速率提高到每分钟 1000 个请求。

调整后开发者们可以在更大并发场景中使用 o1 系列模型解决复杂的推理任务,并在获得推理结果后再使用 GPT-4o 系列模型进行接下来的处理等。

除了面向开发者调整速率外,OpenAI 在本周还面向 ChatGPT Plus 和 ChatGPT Team 用户调整了 o1-mini 的速率限制,从每周可以发送 50 条消息提高到每天可以发送 50 条消息。

但因为 o1-preview 模型的服务成本更高,所以 OpenAI 只将该模型的消息限制从每周 30 条提高到每周 50 条,所以总体来说还是有一些使用限制的。

追评

我寻思,老黄对奥特曼电话:"放心搞,大胆搞,再送半挂,包管够!"

相关推荐
AI蜗牛之家1 小时前
Qwen系列之Qwen3解读:最强开源模型的细节拆解
人工智能·python
王上上1 小时前
【论文阅读30】Bi-LSTM(2024)
论文阅读·人工智能·lstm
YunTM2 小时前
贝叶斯优化+LSTM+时序预测=Nature子刊!
人工智能·机器学习
舒一笑3 小时前
智能体革命:企业如何构建自主决策的AI代理?
人工智能
丁先生qaq4 小时前
热成像实例分割电力设备数据集(3类,838张)
人工智能·计算机视觉·目标跟踪·数据集
红衣小蛇妖4 小时前
神经网络-Day45
人工智能·深度学习·神经网络
KKKlucifer4 小时前
当AI遇上防火墙:新一代智能安全解决方案全景解析
人工智能
DisonTangor5 小时前
【小红书拥抱开源】小红书开源大规模混合专家模型——dots.llm1
人工智能·计算机视觉·开源·aigc
浠寒AI7 小时前
智能体模式篇(上)- 深入 ReAct:LangGraph构建能自主思考与行动的 AI
人工智能·python
weixin_505154467 小时前
数字孪生在建设智慧城市中可以起到哪些作用或帮助?
大数据·人工智能·智慧城市·数字孪生·数据可视化