最近,OpenCode 团队悄悄上线了一个新东西,叫 OpenCode Go。这名字听着有点抽象,其实说白了就是一个低价订阅服务------首月 5 美元,之后每个月 10 美元,用来稳定访问那些热门的开放编码模型。
需要先说一声,OpenCode Go 目前还在测试阶段,也就是 beta 状态。

为什么会有这个东西?
开放模型这几年进步很快。在编码任务上,它们的表现已经相当接近那些闭源的商业模型了。而且因为很多服务商都能以很有竞争力的价格来托管这些模型,所以用起来的成本通常要低得多。
但问题也很现实:想要稳定、低延迟地访问这些模型,并不是一件容易的事。不同服务商提供的质量参差不齐,有的时好时坏,有的地区根本连不上。
OpenCode 团队为此做了一些功课。他们先筛选了一批在自己测试中表现不错的开放模型,跟模型团队聊了聊怎么跑效果最好。然后找了几家服务商合作,确保这些模型被正确部署和服务。最后,他们把模型和服务商的各种组合都跑了一遍基准测试,整理出了一张值得推荐的清单。
OpenCode Go 就是把这张清单上的模型打包成一个订阅,首月 5 美元,之后每月 10 美元。
怎么用?
OpenCode Go 的使用方式和 OpenCode 里任何一个其他服务商完全一样。
用户需要先登录 OpenCode Zen,订阅 Go 服务,然后复制自己的 API 密钥。接着在 TUI 界面里运行 /connect 命令,选择 OpenCode Go,把 API 密钥粘贴进去。最后运行 /models 就能看到所有可以通过 Go 访问的模型列表了。
有一个小细节需要注意:每个工作空间里,只能有一个人订阅 OpenCode Go。
目前可用的模型包括这些:
- GLM‑5
- GLM‑5.1
- Kimi K2.5
- Kimi K2.6
- MiMo‑V2‑Pro
- MiMo‑V2‑Omni
- MiMo‑V2.5‑Pro
- MiMo‑V2.5
- MiniMax M2.5
- MiniMax M2.7
- Qwen3.5 Plus
- Qwen3.6 Plus
- DeepSeek V4 Pro
- DeepSeek V4 Flash
当然,这个清单不是固定不变的。OpenCode 团队会根据后续的测试结果不断添加新模型,也可能调整现有内容。
用量限制
OpenCode Go 设了三层用量限制:
- 每 5 小时限额:12 美元
- 每周限额:30 美元
- 每月限额:60 美元
这些限额用的是美元金额来计算的,所以实际能发多少请求,完全取决于用的是哪个模型。像 Qwen3.5 Plus 这种便宜一些的模型,能发的请求数量就多;而 GLM‑5.1 这类成本较高的模型,能发的请求就相对少一些。
官方给了一个基于典型使用模式估算出来的请求数量参考表:
| 模型 | 每5小时请求数 | 每周请求数 | 每月请求数 |
|---|---|---|---|
| GLM-5.1 | 880 | 2,150 | 4,300 |
| GLM-5 | 1,150 | 2,880 | 5,750 |
| Kimi K2.5 | 1,850 | 4,630 | 9,250 |
| Kimi K2.6 | 1,150 | 2,880 | 5,750 |
| MiMo-V2-Pro | 1,290 | 3,225 | 6,450 |
| MiMo-V2-Omni | 2,150 | 5,450 | 10,900 |
| MiMo-V2.5-Pro | 1,290 | 3,225 | 6,450 |
| MiMo-V2.5 | 2,150 | 5,450 | 10,900 |
| MiniMax M2.7 | 3,400 | 8,500 | 17,000 |
| MiniMax M2.5 | 6,300 | 15,900 | 31,800 |
| Qwen3.6 Plus | 3,300 | 8,200 | 16,300 |
| Qwen3.5 Plus | 10,200 | 25,200 | 50,500 |
| DeepSeek V4 Pro | 1,300 | 3,250 | 6,500 |
| DeepSeek V4 Flash | 7,450 | 18,600 | 37,300 |
这些估算基于每个请求的平均 token 用量:
- GLM‑5/5.1:700 输入 + 52,000 缓存 + 150 输出
- Kimi K2.5/K2.6:870 输入 + 55,000 缓存 + 200 输出
- DeepSeek V4 Pro/Flash:700 输入 + 52,000 缓存 + 150 输出
- MiniMax M2.7/M2.5:300 输入 + 55,000 缓存 + 125 输出
- MiMo‑V2‑Pro:350 输入 + 41,000 缓存 + 250 输出
- MiMo‑V2‑Omni:1,000 输入 + 60,000 缓存 + 140 输出
- MiMo‑V2.5‑Pro:350 输入 + 41,000 缓存 + 250 输出
- MiMo‑V2.5:1,000 输入 + 60,000 缓存 + 140 输出
- Qwen3.5 Plus:410 输入 + 47,000 缓存 + 140 输出
- Qwen3.6 Plus:500 输入 + 57,000 缓存 + 190 输出
用户可以在控制台里随时查看当前的用量。如果达到了限额,其实也不影响继续使用那些免费的模型。需要说明的是,这些用量限制可能会根据早期的实际使用情况和用户反馈进行调整。
超出限额怎么办?
如果账户里还有 Zen 余额(也就是之前充值的积分),可以在控制台里打开一个叫"Use balance"的选项。打开之后,当 Go 的用量限额用完了,系统会自动切换到用 Zen 余额继续服务,而不是直接拒绝请求。
API 端点
OpenCode Go 的模型也可以通过标准的 API 端点来访问。大部分模型用的是 OpenAI 兼容的聊天补全端点:https://opencode.ai/zen/go/v1/chat/completions,对应的 AI SDK 包是 @ai-sdk/openai-compatible。
有几个模型比较特殊。DeepSeek V4 Pro、DeepSeek V4 Flash、MiniMax M2.7 和 MiniMax M2.5 用的是 Anthropic 风格的消息端点:https://opencode.ai/zen/go/v1/messages,SDK 包是 @ai-sdk/anthropic。
而 Qwen3.6 Plus 和 Qwen3.5 Plus 虽然也是聊天补全端点,但推荐使用的 SDK 包是 @ai-sdk/alibaba。
在 OpenCode 的配置文件中,模型 ID 的格式是 opencode-go/<model-id>。比如要用 Kimi K2.6,就写成 opencode-go/kimi-k2.6。
隐私方面怎么考虑的?
这个方案主要是为国际用户设计的,模型托管在美国、欧盟和新加坡,目的是保证全球范围内稳定的访问速度。合作的服务商都遵循零保留政策,不会拿用户的数据去训练模型。
为什么要做 OpenCode Go?
OpenCode 团队自己总结了三个目标:
- 用低成本的订阅方式,让更多人能用上 AI 辅助编码
- 提供稳定、可靠的开放编码模型访问渠道
- 把经过测试和基准验证过的模型整理出来,专门适配编码代理的使用场景
最后还有一点挺重要------OpenCode Go 并不是一个封闭的牢笼。用户完全可以同时使用其他任何服务商,没有任何锁定的问题。用不用 Go,用哪家,都是自由的。