OpenAI o1-preview和o1-mini现已在 GitHub Copilot和GitHub Models中提供

微软 GitHub 今天宣布在 GitHub Copilot和 Models 中提供两个新的 Open AI 模型:o1-preview 和 o1-mini。OpenAI 推出了新的 o1 系列 人工智能模型,旨在花更多时间思考后再做出反应。与以前的 OpenAI 模型相比,这些模型能在科学、编码和数学领域推理出复杂的任务并解决更难的问题。

在将 o1-preview 与 GitHub Copilot 一起使用时,GitHub 团队注意到该模型的推理能力可以更深入地理解代码约束和边缘情况,从而产生更高效、更高质量的结果。有了这个新的预览版,开发人员可以在 VS Code 中选择 o1-preview 或 o1-mini 来支持他们的 Copilot 聊天体验,而不是当前的默认模型 GPT-4o。GitHub 还将允许他们在对话过程中根据需求更改模型。例如,开发人员可以使用 GPT-4o 快速了解 API,使用 o1-preview 设计复杂的算法。

开发人员还可以在 GitHub Models 的Playground中测试这两种新的 o1 模型,以探索它们的功能和性能。之后,他们可以将模型集成到自己的应用程序中,以便进一步开发。

开发人员现在可以在这里注册,通过 GitHub Copilot Chat 与 Visual Studio Code 和/或通过 GitHub Models playground 访问新的 OpenAI o1。

与此相关,OpenAI最近提高了面向开发者的 o1-preview 和 o1-mini API 的速率限制。o1-preview API 现在支持每分钟 500 次请求,而 o1-mini API 现在支持每分钟 1000 次请求。Open AI 团队正在进一步提高速率限制,并将 API 访问扩展到更多开发人员层级。

在消费者方面,OpenAI 的 o1-preview 和 o1-mini 模型现已提供给所有ChatGPT Enterprise 和 ChatGPT 教育客户。OpenAI 最近将 o1-mini 的费率限制提高了 7 倍,从每周 50 条消息提高到每天 50 条消息。而 o1-preview 的速率限制已从每周 30 条消息增加到每周 50 条消息。

感谢大家花时间阅读我的文章,你们的支持是我不断前进的动力。期望未来能为大家带来更多有价值的内容,请多多关注我的动态!

相关推荐
寻月隐君3 分钟前
Rust 网络编程实战:用 Tokio 手写一个迷你 TCP 反向代理 (minginx)
后端·rust·github
喜欢吃豆1 小时前
快速手搓一个MCP服务指南(九): FastMCP 服务器组合技术:构建模块化AI应用的终极方案
服务器·人工智能·python·深度学习·大模型·github·fastmcp
油泼辣子多加11 小时前
2025年06月30日Github流行趋势
github
ai小鬼头11 小时前
AIStarter如何快速部署Stable Diffusion?**新手也能轻松上手的AI绘图
前端·后端·github
寻月隐君16 小时前
Rust 异步编程实践:从 Tokio 基础到阻塞任务处理模式
后端·rust·github
bingGO5499116 小时前
github 集成CICD自动化部署
github
超龄超能程序猿16 小时前
Bitvisse SSH Client 安装配置文档
运维·ssh·github
Natsume171020 小时前
嵌入式开发:GPIO、UART、SPI、I2C 驱动开发详解与实战案例
c语言·驱动开发·stm32·嵌入式硬件·mcu·架构·github
荔枝吻20 小时前
【AI总结】Git vs GitHub vs GitLab:深度解析三者联系与核心区别
人工智能·git·github
兔老大RabbitMQ20 小时前
GitHub vs GitLab 全面对比报告(2025版)
gitlab·github