OpenCode Go :为开放编码模型准备的低价订阅方案

最近,OpenCode 团队悄悄上线了一个新东西,叫 OpenCode Go。这名字听着有点抽象,其实说白了就是一个低价订阅服务------首月 5 美元,之后每个月 10 美元,用来稳定访问那些热门的开放编码模型。

需要先说一声,OpenCode Go 目前还在测试阶段,也就是 beta 状态。

为什么会有这个东西?

开放模型这几年进步很快。在编码任务上,它们的表现已经相当接近那些闭源的商业模型了。而且因为很多服务商都能以很有竞争力的价格来托管这些模型,所以用起来的成本通常要低得多。

但问题也很现实:想要稳定、低延迟地访问这些模型,并不是一件容易的事。不同服务商提供的质量参差不齐,有的时好时坏,有的地区根本连不上。

OpenCode 团队为此做了一些功课。他们先筛选了一批在自己测试中表现不错的开放模型,跟模型团队聊了聊怎么跑效果最好。然后找了几家服务商合作,确保这些模型被正确部署和服务。最后,他们把模型和服务商的各种组合都跑了一遍基准测试,整理出了一张值得推荐的清单。

OpenCode Go 就是把这张清单上的模型打包成一个订阅,首月 5 美元,之后每月 10 美元。

怎么用?

OpenCode Go 的使用方式和 OpenCode 里任何一个其他服务商完全一样。

用户需要先登录 OpenCode Zen,订阅 Go 服务,然后复制自己的 API 密钥。接着在 TUI 界面里运行 /connect 命令,选择 OpenCode Go,把 API 密钥粘贴进去。最后运行 /models 就能看到所有可以通过 Go 访问的模型列表了。

有一个小细节需要注意:每个工作空间里,只能有一个人订阅 OpenCode Go。

目前可用的模型包括这些:

  • GLM‑5
  • GLM‑5.1
  • Kimi K2.5
  • Kimi K2.6
  • MiMo‑V2‑Pro
  • MiMo‑V2‑Omni
  • MiMo‑V2.5‑Pro
  • MiMo‑V2.5
  • MiniMax M2.5
  • MiniMax M2.7
  • Qwen3.5 Plus
  • Qwen3.6 Plus
  • DeepSeek V4 Pro
  • DeepSeek V4 Flash

当然,这个清单不是固定不变的。OpenCode 团队会根据后续的测试结果不断添加新模型,也可能调整现有内容。

用量限制

OpenCode Go 设了三层用量限制:

  • 每 5 小时限额:12 美元
  • 每周限额:30 美元
  • 每月限额:60 美元

这些限额用的是美元金额来计算的,所以实际能发多少请求,完全取决于用的是哪个模型。像 Qwen3.5 Plus 这种便宜一些的模型,能发的请求数量就多;而 GLM‑5.1 这类成本较高的模型,能发的请求就相对少一些。

官方给了一个基于典型使用模式估算出来的请求数量参考表:

模型 每5小时请求数 每周请求数 每月请求数
GLM-5.1 880 2,150 4,300
GLM-5 1,150 2,880 5,750
Kimi K2.5 1,850 4,630 9,250
Kimi K2.6 1,150 2,880 5,750
MiMo-V2-Pro 1,290 3,225 6,450
MiMo-V2-Omni 2,150 5,450 10,900
MiMo-V2.5-Pro 1,290 3,225 6,450
MiMo-V2.5 2,150 5,450 10,900
MiniMax M2.7 3,400 8,500 17,000
MiniMax M2.5 6,300 15,900 31,800
Qwen3.6 Plus 3,300 8,200 16,300
Qwen3.5 Plus 10,200 25,200 50,500
DeepSeek V4 Pro 1,300 3,250 6,500
DeepSeek V4 Flash 7,450 18,600 37,300

这些估算基于每个请求的平均 token 用量:

  • GLM‑5/5.1:700 输入 + 52,000 缓存 + 150 输出
  • Kimi K2.5/K2.6:870 输入 + 55,000 缓存 + 200 输出
  • DeepSeek V4 Pro/Flash:700 输入 + 52,000 缓存 + 150 输出
  • MiniMax M2.7/M2.5:300 输入 + 55,000 缓存 + 125 输出
  • MiMo‑V2‑Pro:350 输入 + 41,000 缓存 + 250 输出
  • MiMo‑V2‑Omni:1,000 输入 + 60,000 缓存 + 140 输出
  • MiMo‑V2.5‑Pro:350 输入 + 41,000 缓存 + 250 输出
  • MiMo‑V2.5:1,000 输入 + 60,000 缓存 + 140 输出
  • Qwen3.5 Plus:410 输入 + 47,000 缓存 + 140 输出
  • Qwen3.6 Plus:500 输入 + 57,000 缓存 + 190 输出

用户可以在控制台里随时查看当前的用量。如果达到了限额,其实也不影响继续使用那些免费的模型。需要说明的是,这些用量限制可能会根据早期的实际使用情况和用户反馈进行调整。

超出限额怎么办?

如果账户里还有 Zen 余额(也就是之前充值的积分),可以在控制台里打开一个叫"Use balance"的选项。打开之后,当 Go 的用量限额用完了,系统会自动切换到用 Zen 余额继续服务,而不是直接拒绝请求。

API 端点

OpenCode Go 的模型也可以通过标准的 API 端点来访问。大部分模型用的是 OpenAI 兼容的聊天补全端点:https://opencode.ai/zen/go/v1/chat/completions,对应的 AI SDK 包是 @ai-sdk/openai-compatible

有几个模型比较特殊。DeepSeek V4 Pro、DeepSeek V4 Flash、MiniMax M2.7 和 MiniMax M2.5 用的是 Anthropic 风格的消息端点:https://opencode.ai/zen/go/v1/messages,SDK 包是 @ai-sdk/anthropic

而 Qwen3.6 Plus 和 Qwen3.5 Plus 虽然也是聊天补全端点,但推荐使用的 SDK 包是 @ai-sdk/alibaba

在 OpenCode 的配置文件中,模型 ID 的格式是 opencode-go/<model-id>。比如要用 Kimi K2.6,就写成 opencode-go/kimi-k2.6

隐私方面怎么考虑的?

这个方案主要是为国际用户设计的,模型托管在美国、欧盟和新加坡,目的是保证全球范围内稳定的访问速度。合作的服务商都遵循零保留政策,不会拿用户的数据去训练模型。

为什么要做 OpenCode Go?

OpenCode 团队自己总结了三个目标:

  • 用低成本的订阅方式,让更多人能用上 AI 辅助编码
  • 提供稳定、可靠的开放编码模型访问渠道
  • 把经过测试和基准验证过的模型整理出来,专门适配编码代理的使用场景

最后还有一点挺重要------OpenCode Go 并不是一个封闭的牢笼。用户完全可以同时使用其他任何服务商,没有任何锁定的问题。用不用 Go,用哪家,都是自由的。

相关推荐
易安说AI18 小时前
Codex 直接住进 JetBrains IDE 里:AI Agent 正在接管熟悉的开发入口
后端
子兮曰19 小时前
Node.js v26.1.0 深度解读:FFI、后量子密码与调试器的进化
前端·后端·node.js
郝学胜-神的一滴19 小时前
Qt 入门 01-01:从零基础到商业级客户端实战
开发语言·c++·qt·程序人生·软件构建
测试员周周19 小时前
【Appium 系列】第06节-页面对象实现 — LoginPage 实战
开发语言·前端·人工智能·python·功能测试·appium·测试用例
摇滚侠20 小时前
@Autowired 和 @Resource 的区别
java·开发语言
Wy_编程20 小时前
go语言中的结构体
开发语言·后端·golang
SeaTunnel20 小时前
(八)收官篇 | 数据平台最后一公里:数据集成开发设计与上线治理实战
java·大数据·开发语言·白鲸开源
大卡片21 小时前
C++的基础知识点
开发语言·c++
郑同学的笔记21 小时前
【Qt教程29】Qt5和Qt6版本对比
开发语言·qt
基德爆肝c语言21 小时前
Qt 主窗口全家桶:菜单栏、工具栏、状态栏与对话框完全指南
开发语言·qt