最近在社交媒体看到一封来自 OpenAI 的邮件,标题是OpenAI 正在逐步关停自助微调(Fine-tuning)服务。

主要是交代了三件事情------
即日起,从未使用过微调功能的新用户,已经无法创建新的微调任务了。
2026 年 7 月 2 日,限制进一步收紧,更多组织将无法新建微调任务。
2027 年 1 月 6 日,所有现有用户也将无法再创建新的微调训练任务。这是最终截止日期。
不过有一点需要说清楚:已经训练好的微调模型,推理服务不会立刻关停。
它会跟着底层基座模型的生命周期走,基座模型退役了,你的微调模型才会跟着下线。
所以如果你现在已经有在跑的微调模型,今天可以不用太着急,但确实需要开始规划迁移了。
而OpenAI 为什么要砍掉微调?
OpenAI 给出的官方理由是:新一代基座模型在指令遵循和格式输出方面已经足够强了。
简单来说就是:GPT-5.5 这一代模型已经很听话了,你直接写 Prompt 配合 RAG 就能搞定绝大多数场景,没必要再花钱花时间去微调。
虽然话说的很漂亮,但事情要比想象的要更复杂。
科技媒体 Startup Fortune 的分析结论是:OpenAI 在收缩底层模型接口。

过去两年,大量初创公司靠低成本的自助微调,在垂直行业里做出了定制化产品,建立了自己的技术壁垒。
现在这条路被堵上了,OpenAI 转而在推 Prompt 工程、RAG、Custom GPTs、Tool Use 这些跑在自家平台上的定制化方案。
开发者的产品逻辑越多地留在 OpenAI 的运行时和工具链里,OpenAI 就越容易控制可靠性、计费和模型升级。
微调给了开发者一定的独立性和可迁移性,而砍掉微调,就是在收回这种独立性。
但从目前的情况看,还能拿来微调的模型本来就所剩无几。
SFT 主要只剩 gpt-4.1 系列可用,RFT 只支持 o4-mini,而 o4-mini 在 ChatGPT 端已经于今年 2 月退役,API 端也有了关停时间表。
自由度本来就很有限,现在连这点空间都要没了。
如果你目前有在用 OpenAI 微调服务,建议尽快评估以下几个迁移方向。
第一,试试 Prompt Engineering + RAG 能不能替代。
这是 OpenAI 官方推荐的路径。
说实话,对于大多数场景,特别是那些主要靠微调来"注入知识"的用例,RAG 确实是更合理的方案。
你把领域知识放在向量数据库里,检索后拼到 Prompt 里,效果不一定比微调差,而且知识更新的成本低得多。
第二,考虑迁移到其他平台的微调服务。
如果你的业务确实离不开微调,那就看看其他家了。
Google、Anthropic、以及各种开源模型(Llama、Qwen 等)都还提供微调能力。
微调的核心是数据集和训练流程,如果你的数据集质量够好,换个底座模型重新训练的成本其实没那么高。
第三,关注开源模型。
这可能是这件事最大的长期影响。
当 OpenAI 收紧了定制化的入口,开源模型的吸引力会进一步上升,你可以在自己的基础设施上跑微调,不用担心哪天服务商突然改规则。
最后OpenAI 从最早的开放 fine-tune,到后来砍掉 babbage 和 davinci 的微调支持,到现在直接关掉整个自助微调平台。
路径其实也很清晰:底层能力在收,上层产品在推。
2027 年 1 月 6 日是最后的截止日期,看起来还有大半年,但考虑到迁移测试、效果验证、上线切换的时间,现在大家还可以先喝两杯。
好了,今天这篇文章就到这里,如果对你有帮助,麻烦点个赞~
相关阅读: