OpenAI面向开发者继续提高o1系列模型的调用速率 最高每分钟可调用1000次

早前 OpenAI 推出基于 o1 系列的新模型,分为 o1-preview 预览版和更快更便宜的 o1-mini 版,该系列模型的主要特点是可以解决更复杂推理任务。需要强调的是 o1 模型并不能直接替代 GPT-4o 模型,原因在于 o1 模型仅提高推理能力,但不支持图像功能、函数调用和快速响应时间。

对大多数开发者而言可能需要混合使用 GPT-4o、GPT-4o-mini 和 o1 系列模型,即在不同的使用场景中搭配不同的模型以获得最佳性能。

今天 OpenAI 宣布提高 Tier 5 开发者的 o1 系列模型调用速率,鼓励更多开发者积极使用 o1 系列模型,但目前这仅适用于 5 级开发者,后续 OpenAI 会陆续扩展支持 1~4 级开发者。

此次调整前 o1-preview 模型的调用速率为每分钟 100 个请求,o1-mini 的调用速率则是每分钟 250 个请求;此次调整后 o1-preview 调用速率提高到每分钟 500 个请求,而 o1-mini 调用速率提高到每分钟 1000 个请求。

调整后开发者们可以在更大并发场景中使用 o1 系列模型解决复杂的推理任务,并在获得推理结果后再使用 GPT-4o 系列模型进行接下来的处理等。

除了面向开发者调整速率外,OpenAI 在本周还面向 ChatGPT Plus 和 ChatGPT Team 用户调整了 o1-mini 的速率限制,从每周可以发送 50 条消息提高到每天可以发送 50 条消息。

但因为 o1-preview 模型的服务成本更高,所以 OpenAI 只将该模型的消息限制从每周 30 条提高到每周 50 条,所以总体来说还是有一些使用限制的。

追评

我寻思,老黄对奥特曼电话:"放心搞,大胆搞,再送半挂,包管够!"

相关推荐
AI2512242 分钟前
AI生视频主流工具功能及生成技术原理解析
人工智能·音视频
云捷配低代码4 分钟前
低代码自动化工作流实战:实现跨部门业务协同的自动化流转
运维·人工智能·低代码·自动化·数字化·敏捷流程·数字化转型
龙文浩_8 分钟前
AI中NLP的循环神经网络及其演进
人工智能·pytorch·深度学习·神经网络·自然语言处理
Cxiaomu9 分钟前
AI 聊天流式交互基础:SSE、EventSource 与 ReadableStream
人工智能·交互
啦啦啦!10 分钟前
项目环境的搭建,项目的初步使用和deepseek的初步认识
开发语言·c++·人工智能·算法
Westward-sun.12 分钟前
OpenCV实战:摄像头实时文档扫描与透视矫正
人工智能·opencv·计算机视觉
V搜xhliang024612 分钟前
生成式人工智能、大语言模型在医学教育教学中的前沿探讨
人工智能
枫叶林FYL13 分钟前
【自然语言处理 NLP】7.1 机制可解释性(Mechanistic Interpretability)
人工智能·自然语言处理
任小栗13 分钟前
【实战干货】Vue3 + WebRTC + SIP + AI 实现全自动语音接警系统(远程流获取+实时ASR+TTS回播)
人工智能·webrtc
qq_3482318516 分钟前
OpenClaw 完整安装教程
人工智能