OpenCode Go :为开放编码模型准备的低价订阅方案

最近,OpenCode 团队悄悄上线了一个新东西,叫 OpenCode Go。这名字听着有点抽象,其实说白了就是一个低价订阅服务------首月 5 美元,之后每个月 10 美元,用来稳定访问那些热门的开放编码模型。

需要先说一声,OpenCode Go 目前还在测试阶段,也就是 beta 状态。

为什么会有这个东西?

开放模型这几年进步很快。在编码任务上,它们的表现已经相当接近那些闭源的商业模型了。而且因为很多服务商都能以很有竞争力的价格来托管这些模型,所以用起来的成本通常要低得多。

但问题也很现实:想要稳定、低延迟地访问这些模型,并不是一件容易的事。不同服务商提供的质量参差不齐,有的时好时坏,有的地区根本连不上。

OpenCode 团队为此做了一些功课。他们先筛选了一批在自己测试中表现不错的开放模型,跟模型团队聊了聊怎么跑效果最好。然后找了几家服务商合作,确保这些模型被正确部署和服务。最后,他们把模型和服务商的各种组合都跑了一遍基准测试,整理出了一张值得推荐的清单。

OpenCode Go 就是把这张清单上的模型打包成一个订阅,首月 5 美元,之后每月 10 美元。

怎么用?

OpenCode Go 的使用方式和 OpenCode 里任何一个其他服务商完全一样。

用户需要先登录 OpenCode Zen,订阅 Go 服务,然后复制自己的 API 密钥。接着在 TUI 界面里运行 /connect 命令,选择 OpenCode Go,把 API 密钥粘贴进去。最后运行 /models 就能看到所有可以通过 Go 访问的模型列表了。

有一个小细节需要注意:每个工作空间里,只能有一个人订阅 OpenCode Go。

目前可用的模型包括这些:

  • GLM‑5
  • GLM‑5.1
  • Kimi K2.5
  • Kimi K2.6
  • MiMo‑V2‑Pro
  • MiMo‑V2‑Omni
  • MiMo‑V2.5‑Pro
  • MiMo‑V2.5
  • MiniMax M2.5
  • MiniMax M2.7
  • Qwen3.5 Plus
  • Qwen3.6 Plus
  • DeepSeek V4 Pro
  • DeepSeek V4 Flash

当然,这个清单不是固定不变的。OpenCode 团队会根据后续的测试结果不断添加新模型,也可能调整现有内容。

用量限制

OpenCode Go 设了三层用量限制:

  • 每 5 小时限额:12 美元
  • 每周限额:30 美元
  • 每月限额:60 美元

这些限额用的是美元金额来计算的,所以实际能发多少请求,完全取决于用的是哪个模型。像 Qwen3.5 Plus 这种便宜一些的模型,能发的请求数量就多;而 GLM‑5.1 这类成本较高的模型,能发的请求就相对少一些。

官方给了一个基于典型使用模式估算出来的请求数量参考表:

模型 每5小时请求数 每周请求数 每月请求数
GLM-5.1 880 2,150 4,300
GLM-5 1,150 2,880 5,750
Kimi K2.5 1,850 4,630 9,250
Kimi K2.6 1,150 2,880 5,750
MiMo-V2-Pro 1,290 3,225 6,450
MiMo-V2-Omni 2,150 5,450 10,900
MiMo-V2.5-Pro 1,290 3,225 6,450
MiMo-V2.5 2,150 5,450 10,900
MiniMax M2.7 3,400 8,500 17,000
MiniMax M2.5 6,300 15,900 31,800
Qwen3.6 Plus 3,300 8,200 16,300
Qwen3.5 Plus 10,200 25,200 50,500
DeepSeek V4 Pro 1,300 3,250 6,500
DeepSeek V4 Flash 7,450 18,600 37,300

这些估算基于每个请求的平均 token 用量:

  • GLM‑5/5.1:700 输入 + 52,000 缓存 + 150 输出
  • Kimi K2.5/K2.6:870 输入 + 55,000 缓存 + 200 输出
  • DeepSeek V4 Pro/Flash:700 输入 + 52,000 缓存 + 150 输出
  • MiniMax M2.7/M2.5:300 输入 + 55,000 缓存 + 125 输出
  • MiMo‑V2‑Pro:350 输入 + 41,000 缓存 + 250 输出
  • MiMo‑V2‑Omni:1,000 输入 + 60,000 缓存 + 140 输出
  • MiMo‑V2.5‑Pro:350 输入 + 41,000 缓存 + 250 输出
  • MiMo‑V2.5:1,000 输入 + 60,000 缓存 + 140 输出
  • Qwen3.5 Plus:410 输入 + 47,000 缓存 + 140 输出
  • Qwen3.6 Plus:500 输入 + 57,000 缓存 + 190 输出

用户可以在控制台里随时查看当前的用量。如果达到了限额,其实也不影响继续使用那些免费的模型。需要说明的是,这些用量限制可能会根据早期的实际使用情况和用户反馈进行调整。

超出限额怎么办?

如果账户里还有 Zen 余额(也就是之前充值的积分),可以在控制台里打开一个叫"Use balance"的选项。打开之后,当 Go 的用量限额用完了,系统会自动切换到用 Zen 余额继续服务,而不是直接拒绝请求。

API 端点

OpenCode Go 的模型也可以通过标准的 API 端点来访问。大部分模型用的是 OpenAI 兼容的聊天补全端点:https://opencode.ai/zen/go/v1/chat/completions,对应的 AI SDK 包是 @ai-sdk/openai-compatible

有几个模型比较特殊。DeepSeek V4 Pro、DeepSeek V4 Flash、MiniMax M2.7 和 MiniMax M2.5 用的是 Anthropic 风格的消息端点:https://opencode.ai/zen/go/v1/messages,SDK 包是 @ai-sdk/anthropic

而 Qwen3.6 Plus 和 Qwen3.5 Plus 虽然也是聊天补全端点,但推荐使用的 SDK 包是 @ai-sdk/alibaba

在 OpenCode 的配置文件中,模型 ID 的格式是 opencode-go/<model-id>。比如要用 Kimi K2.6,就写成 opencode-go/kimi-k2.6

隐私方面怎么考虑的?

这个方案主要是为国际用户设计的,模型托管在美国、欧盟和新加坡,目的是保证全球范围内稳定的访问速度。合作的服务商都遵循零保留政策,不会拿用户的数据去训练模型。

为什么要做 OpenCode Go?

OpenCode 团队自己总结了三个目标:

  • 用低成本的订阅方式,让更多人能用上 AI 辅助编码
  • 提供稳定、可靠的开放编码模型访问渠道
  • 把经过测试和基准验证过的模型整理出来,专门适配编码代理的使用场景

最后还有一点挺重要------OpenCode Go 并不是一个封闭的牢笼。用户完全可以同时使用其他任何服务商,没有任何锁定的问题。用不用 Go,用哪家,都是自由的。

相关推荐
.千余2 小时前
【Linux】开发工具2:vim
linux·服务器·开发语言·学习
SWAGGY..2 小时前
【C++初阶】:(10)vector的使用及模拟实现
开发语言·c++
所愿ღ2 小时前
SSM框架-Spring2
java·开发语言·笔记·spring
故事还在继续吗2 小时前
C++11关键特性
开发语言·c++·算法
格林威2 小时前
面阵相机 vs 线阵相机:堡盟与Basler选型差异全解析 +C++ 实战演示
开发语言·c++·人工智能·数码相机·计算机视觉·视觉检测·工业相机
zzzsde2 小时前
【Linux】线程概念与控制(2)线程控制与核心概念
linux·运维·服务器·开发语言·算法
白夜11172 小时前
C++(不适合使用 CRTP情况)
开发语言·c++·笔记
栗少2 小时前
Python 入门教程(面向有 Java 经验的开发者)
java·开发语言·python
草莓熊Lotso2 小时前
Linux C++ 高并发编程:从原理到手撕,线程池全链路深度解析
linux·运维·服务器·开发语言·数据库·c++·mysql