两个配置让 Codex 效率翻倍

两个配置让 Codex 效率翻倍

先说个额外福利,白山智算现在注册可以拿 450 额度,实名一部分,首次调用成功再补一部分,拿来补位模型很够用。直达链接:白山智算

最近我把 Codex 的默认配置改了下,核心就两个:

  1. fast 模式,模型选 GPT 5.4
  2. GPT 5.41M 上下文

就这两个,体感会明显顺很多。

1. 先说结论

fast 解决响应慢,1M context 解决长对话丢上下文。一个提速,一个减少重复解释,组合起来就是现在我最推荐的 Codex 默认配置:

GPT 5.4 + fast + 1M context

2. 配置一:开启 fast 模式 + GPT 5.4

cli 在 terminal 输入 /fast

这一项建议直接当日常默认配置,一般就两步:

  1. 模型切到 GPT 5.4
  2. 推理模式切到 fast

这套配置的核心价值就是快。大多数日常任务,比如看代码、改代码、补命令、顺着报错继续查,真正拖效率的不是不会做,而是每一轮都慢半拍。GPT 5.4 + fast 基本就是我现在的主力档位。

3. 配置二:给 GPT 5.4 配 1M 上下文

model_context_window = 1050000 model_auto_compact_token_limit = 900000

第二个配置更简单,如果支持长上下文,直接给 GPT 5.4 配到 1M

它解决的是长链路里的"失忆"问题。任务一长,前面看过的文件、说过的约束、已经确认的方案都更容易保住,不用你反复补背景,连续做事会稳很多。

相关推荐
jinanwuhuaguo1 天前
OpenClaw深度沟通渠道-全景深度解构
大数据·开发语言·人工智能·openclaw
软件资深者1 天前
OpenClaw 本地安装 vs 网页版龙虾:全方位对比 + 2026 最新一键安装客户端(新手零门槛搭建专属 AI 助理)
运维·人工智能·自动化·飞书·数字员工·openclaw·龙虾
北鸟南游1 天前
使用AI智能体的MCP和SKILL
人工智能·程序员·前端框架
cxr8281 天前
OpenClaw Node 技术架构与核心概念
人工智能·架构·ai智能体·openclaw
1941s1 天前
OpenClaw 每日新玩法 | 多 Agent 协作系统 - 让 AI 员工 24小时自主工作
人工智能·agent·openclaw
步步为营DotNet1 天前
深入剖析.NET 11 中 Microsoft.Extensions.AI 在 AI 驱动后端开发的进阶应用
人工智能·microsoft·.net
空空潍1 天前
Spring AI 实战系列(三):多模型共存+双版本流式输出
java·人工智能·spring
gaozhiyong08131 天前
提示词的解剖学:Gemini 3.1 Pro 提示工程高级策略与国内实战
人工智能·算法·机器学习
Langchain1 天前
2026 年 AI 最值得关注的方向:上下文工程!
人工智能·python·自然语言处理·llm·agent·大模型开发·rag
学习者0071 天前
大模型之VLLMA
人工智能