3 个 Codex 提效小技巧

3 个 Codex 提效小技巧

一句话总结:打开 Memory,全面转向 CLI,再补一个 Token 统计脚本,Codex 的稳定性、速度和成本感知都会明显更好。

1. 把最新版的 Memory 打开

Memory 真正有价值的地方,不只是"记住聊过什么",而是记住你反复验证过的做事方式。

比如我之前排查 Bug,经常都会要求 Codex 结合代码和数据库一起查。现在把 Memory 打开后,很多类似场景里,我只需要把 Bug 现象给它,它就会更主动地按这条路径去排查、定位,甚至顺手做一些调整。

这件事的前提也很明确:你平时给它的提示要稳定、可复用。你自己没有固定方法,它也很难记出真正有价值的习惯。

2. 全面放弃 MCP,改用 CLI

我现在已经把最后一个 Playwright MCP 也切到 Playwright CLI 了。

MCPCLI 其实是两种完全不同的东西。MCP 往往会拉起一堆后台线程,工具运行过程和大量上下文也更容易直接进入大模型上下文;而 CLI 更像是把执行过程和输出结果隔离到本地文件里,该落文件的落文件,该按命令执行的按命令执行。

这样带来的收益很直接:

  • 电脑整体资源占用更低
  • 后台 load 线程少很多
  • token 消耗明显更低
  • 体感速度会更快

Playwright CLI 为例,截图、控制台输出、页面信息这些内容都可以走结构化输出,里面也会用到 YAML 这类更适合机器处理的格式。对 Agent 来说,这种方式明显比 MCP 更轻,也更高效。

3. 用脚本统计每天的 Token

我还开源了一个小工具:codex-token-report

它本质上就是一个本地跑的 Python 脚本,但很实用。跑起来之后,你可以直接看到自己每天的 Token 使用情况,也能看到整个 Codex 视角下的汇总和统计。

这个工具的价值不在于"多高级",而在于它把原本分散的消耗信息收口了。你会更容易知道自己每天大概用了多少,哪些天用得特别多,整体成本是不是在可控范围内。

最后

这三个技巧本质上是在做同一件事:让 Codex 少吃无效上下文,多复用你的真实习惯,把执行和统计尽量工程化。

对我来说,效果最明显的就是两点:更省资源,也更省 Token。

相关推荐
量子位4 小时前
数学专业,危!菲尔兹奖得主亲测ChatGPT 5.5 Pro,17分钟出论文级成果
chatgpt
漓漾li4 小时前
每日面试题-Go全栈AI agent
go·agent·全栈
Agent产品评测局5 小时前
设备运维自动化预警系统,从0到1落地实操方法:2026企业级架构与智能体选型全指南
运维·人工智能·ai·chatgpt·架构·自动化
@不误正业6 小时前
第01篇-AI-Agent到底是什么
人工智能·chatgpt
技术人生黄勇6 小时前
ChatGPT 里的“哥布林(goblins)“是怎么来的?
chatgpt
Android出海7 小时前
ChatGPT Image2 2.0正式上线:功能解析 + 使用教程(附提示词)
人工智能·ai·chatgpt·ai生图·chatgpt image2·images2
sinat_286945198 小时前
llm wiki
人工智能·算法·chatgpt
洛卡卡了9 小时前
grill-me、Trellis、Superpowers:不同场景下怎么用?
chatgpt·ai编程·claude
YJlio10 小时前
2023-09-25:ChatGPT 从纯文本走向多模态交互,看、听、说能力意味着什么?
人工智能·chatgpt·aigc·多模态·语音交互·ai工具·图像理解
云天AI实战派11 小时前
ChatGPT / Realtime API / 智能体故障排查指南:语音模型、浏览器会话与权限问题全流程解决方案
人工智能·chatgpt