使用自定义API接入OpenAI CodeX配置教程

Codex 是OpenAI 推出的一系列人工智能编码工具,通过将任务委托给强大的云端和本地编码代理,帮助开发人员提升工作效率。支持原生终端、vscode插件、cursor插件等场景使用。

本教程目的:使用第三方API(中转API)方式接入OpenAI CodeX服务。

官网网站 openai.com/codex/

系统要求

系统要求 细节
操作系统 macOS 12+、Ubuntu 20.04+/Debian 10+ 或通过 WSL2 的Windows 11
Git(可选,推荐) 2.23+ 内置 PR 助手
内存 最低 4 GB(建议 8 GB)
Node版本 需要Node 22+

步骤一:安装Codex CLI

选择一种安装方式即可。

npm(通用)

sh 复制代码
npm i -g @openai/codex

# 或在有时需要的原生包名:
# npm i -g @openai/codex@native

codex --version

Homebrew(macos系统推荐)

sh 复制代码
brew update
brew install codex
codex --version

如遇 codex 无法执行或 Node 版本过旧,请升级 Node(常见需要 Node 22+),或改用 Homebrew 安装。

Codex配置

安装后,我们开始配置codex才能通过apikey方式接入我们的API。如果你是通过openai plus会员来使用codex,可跳过后续教程,codex中直接登录plus账号即可使用。

1.在第三方中转平台注册并充值

这里我们以一个第三方中转平台作为例子,进入网站 api.v3.cm 进行注册并充值,然后在该网站 "令牌管理"页面,复制apikey,后续我们将该apikey接入到codex中使用。

2.codex配置文件config.toml

Codex 启动时会在~/.codex/ 读取config.toml文件。若不存在就新建:

sh 复制代码
mkdir -p ~/.codex
nano ~/.codex/config.toml

config.toml中加入如下配置,根据需求修改:

json 复制代码
model_provider = "vapi"  # 设置API供应商
model = "gpt-5"        # 填写支持codex的模型即可
model_reasoning_effort = "low" # 思考级别 low medium(默认) high minimal,不需要可以#注释掉

# 供应商设置
[model_providers.vapi]
name = "VAPI"
base_url = "https://api.v3.cm/v1"
env_key = "V_API_KEY"    # 保留这个值,不需要替换为apikey
wire_api = "chat" # 使用 /v1/chat/completions 协议
query_params = {}
request_max_retries = 4            # 失败最大重试次数
stream_max_retries = 10            # 流中断后最大重试次数

# 可选:定义一个 profile,便于命令行快速切换
[profiles.vapi]
model_provider = "vapi"
model = "gpt-5"
approval_policy = "on-request"      # 需要时再询问是否执行
sandbox_mode = "workspace-write"    # 允许在当前工程写文件,依旧禁网

3.添加apikey环境变量

这步很重要,我们需要将我们设置的环境变量V_API_KEY添加到系统配置中。

key值就是我们从中转网站的 "令牌管理"页面复制的sk-开头的apikey。

Window用户设置apikey环境变量:

sh 复制代码
# 永久设置(推荐)
setx V_API_KEY "sk-xxxxxx"

# 临时设置,切换窗口后失效
set V_API_KEY=sk-xxxxxx

Mac/Linux用户设置环境变量:

方法一:永久设置(推荐)

1.编辑配置文件(或直接手动打开文件)

sh 复制代码
# 如果使用 bash
nano ~/.bash_profile
# 或
nano ~/.bashrc

# 如果使用 zsh(Mac默认)
nano ~/.zshrc

2.在最后新行,添加以下内容

sh 复制代码
export V_API_KEY="sk-xxxxxx"

3.保存并生效

sh 复制代码
# bash
source ~/.bash_profile

# zsh
source ~/.zshrc

方法二:临时设置

sh 复制代码
export V_API_KEY="sk-xxxxxx"

验证是否设置成功

sh 复制代码
# Windows (CMD)
echo %V_API_KEY%

# Windows (PowerShell)
echo $env:V_API_KEY

# Mac/Linux
echo $V_API_KEY

如果显示sk-xxxxxx则说明设置成功!

启动命令

Codex CLI原生命令

sh 复制代码
# 直接提问
codex "你好"

# 选择提供商并提问(如果有多个提供商的话)
codex --profile vapi "你好"

vscode中使用Codex插件

如果是在vscode中使用codex插件,我们配置好后需要完全退出vscode重新启动才能生效。

Codex高级使用技巧指南

CLI 参考

命令 目的 例子
codex 交互式TUI codex
codex "..." 交互式 TUI 的初始提示 codex "fix lint errors"
codex exec "..." 非交互式"自动化模式" codex exec "explain utils.ts"

非交互/CI模式

在管道中以无头方式运行 Codex。示例 GitHub Action 步骤:

sh 复制代码
- name: Update changelog via Codex
  run: |
    npm install -g @openai/codex
    export OPENAI_API_KEY="${{ secrets.OPENAI_KEY }}"
    codex exec --full-auto "update CHANGELOG for next release"

模型上下文协议(MCP)

通过在~/.codex/config.toml中定义一个mcp_servers部分,可以将 Codex CLI 配置为使用 MCP 服务器。它旨在反映 Claude 和 Cursor 等工具在其各自的 JSON 配置文件中的 mcpServers 定义方式,尽管 Codex 的格式略有不同,因为它使用的是 TOML 而不是 JSON,例如:

sh 复制代码
# IMPORTANT: the top-level key is `mcp_servers` rather than `mcpServers`.
[mcp_servers.server-name]
command = "npx"
args = ["-y", "mcp-server"]
env = { "API_KEY" = "value" }

参考资料

Codex官方详细配置说明文档

相关推荐
机器之心1 天前
小米开源首个跨域具身基座模型MiMo-Embodied,29个榜单SOTA
人工智能·openai
重整旗鼓~1 天前
2.LangChain4j+springboot+大模型整合
openai·springboot·ollama·langchain4j
win4r2 天前
昨夜炸场!Claude Opus 4.5 发布,Chrome 插件“夺舍”浏览器,实测这7大功能令人头皮发麻
aigc·openai·claude
机器之心2 天前
从推荐算法优化到AI4S、Pico和大模型,杨震原长文揭秘字节跳动的技术探索
人工智能·openai
机器之心2 天前
哈工大深圳团队推出Uni-MoE-2.0-Omni:全模态理解、推理及生成新SOTA
人工智能·openai
带刺的坐椅2 天前
(让 Java IA & MCP 更简单 )Solon AI v3.7.2 发布
ai·chatgpt·openai·solon·mcp
爱吃的小肥羊2 天前
GPT-5.1-Codex-Max正式发布,超越Gemini 3,编程能力第一!(附使用方法)
后端·aigc·openai
机器之心2 天前
智能体&编程新王Claude Opus 4.5震撼登场,定价大降2/3
人工智能·openai
新智元2 天前
谷歌「香蕉」手写满分卷,Karpathy 玩上瘾!ChatGPT 跪验沉默
人工智能·openai