免费使用快手新出的AI Coding模型 KAT-Coder-Pro V1~https://console.streamlake.com/console/user/sign-up/tenant?inviteCode=KLKDX5
他还有模型提供商服务器 ,支持国内开源大模型 Qwen3 kimi deepseek 但是没有支持书生 glm等模型服务
Qwen3-235B-A22B-Instruct-2507
Qwen3-30B-A3B-Thinking-2507
Qwen3-32B
Qwen3-30B-A3B
Qwen3-30B-A3B-Instruct-2507
Qwen3-8B
Qwen3-VL-235B-A22B-Instruct
Qwen3-VL-235B-A22B-Thinking
Qwen3-235B-A22B-Thinking-2507
DeepSeek-V3.2
DeepSeek-V3.2-Exp
DeepSeek-V3.1
DeepSeek-V3
DeepSeek-OCR
KAT-Coder-Pro-V1
KAT-Coder-Exp-72B-1010
KAT-Coder-Air-V1
Kimi-K2-Instruct
DeepSeek-R1
Qwen2.5-7B-Instruct
快手顶级AI编程助手KAT-Coder-Pro V1限时免费指南
核心摘要 :快手StreamLake平台宣布其旗舰编码模型 KAT-Coder-Pro V1 限时免费,截止至 2025年11月11日。该模型在权威评测SWE-Bench Verified中表现卓越,性能比肩GPT-4等全球顶尖模型。
一、模型实力:世界顶级水平
-
• 权威评测成绩 :在SWE-Bench Verified上取得 **73.4%** 的解决率,超越或比肩GPT-4(72.8%)和Claude 3.5 Sonnet(71.2%)。
-
• 核心优势:
-
• 🏆 性能强劲:世界级代码生成与问题解决能力。
-
• 💰 限时免费:在活动期间使用成本为零。
-
• 🇨🇳 中文友好:对中文代码注释有优秀支持。
-
• ⚡ 响应迅速:代码生成速度快,质量高。
-
二、快速接入指南(通过Claude Code)
只需3分钟,即可将Claude Code的请求路由至KAT-Coder。
第1步:安装必要工具
在终端中执行以下命令:
bash
复制
npm install -g @anthropic-ai/claude-code npm install -g @musistudio/claude-code-router
第2步:获取API密钥和推理点ID
-
- 访问 StreamLake控制台,注册或登录账号。
-
- 在控制台中 创建API Key 并复制保存。
-
- 在"推理点管理"中找到 KAT-Coder-Pro V1 ,复制其推理点ID(格式为
ep-xxxxx-xxxxxxxxx)。
- 在"推理点管理"中找到 KAT-Coder-Pro V1 ,复制其推理点ID(格式为
第3步:配置路由(两种方式任选一)
-
• 方式A:UI配置(推荐)
执行命令
ccr ui,在打开的图形界面中填写以下信息:-
•
Provider Name:streamlake -
•
API Base URL:https://wanqing.streamlakeapi.com/api/gateway/v1/endpoints/chat/completions -
•
API Key: 你的API Key -
•
Models: 你的推理点ID
-
-
• 方式B:手动编辑配置文件
创建文件
~/.claude-code-router/config.json,内容如下(注意替换YOUR_API_KEY和YOUR_ENDPOINT_ID):json
复制
{ "LOG": true, "API_TIMEOUT_MS": 600000, "Providers": [ { "name": "streamlake", "api_base_url": "https://wanqing.streamlakeapi.com/api/gateway/v1/endpoints/chat/completions", "api_key": "YOUR_API_KEY", "models": ["YOUR_ENDPOINT_ID"] } ], "Router": { "default": "streamlake,YOUR_ENDPOINT_ID", "background": "streamlake,YOUR_ENDPOINT_ID", "think": "streamlake,YOUR_ENDPOINT_ID" } }
第4步:启动并使用
bash
复制
ccr restart # 重启路由服务 ccr code # 启动Claude Code
启动后,即可在编辑器中免费使用KAT-Coder。
三、实战能力演示
| 测试场景 | 示例任务 | KAT-Coder 表现 |
|---|---|---|
| 代码生成 | 用Python Flask创建RESTful API | 生成完整可运行的代码,包含数据库操作、输入验证和错误处理。 |
| 代码审查 | 审查存在问题的Python循环代码 | 精准识别 性能与规范问题,提供Pythonic的重构方案。 |
| Bug修复 | 修复计算平均值函数的潜在除零错误 | 迅速诊断 出边界情况Bug,并提供多种修复方案。 |
四、常见问题(FAQ)
-
• Q: 配置后报401错误怎么办?
A: 请检查API Key和推理点ID是否正确,并确保推理点状态为"运行中"。
-
• Q: 免费期结束后怎么办?
A: 可切换至KAT-Coder-Air V1(长期免费版本,但有使用配额限制)。
-
• Q: 如何查看使用日志?
A: 使用命令
tail -f ~/.claude-code-router/claude-code-router.log。
五、立即行动
三步快速上手:
-
- 获取凭证:前往 StreamLake控制台获取API Key和推理点ID。
-
- 配置路由 :运行
ccr ui进行可视化配置。
- 配置路由 :运行
-
- 开始编程 :运行
ccr code启动AI编程助手。
- 开始编程 :运行
活动截止继续免费 :原来定于北京时间 2025年11月11日 00:00:00。请不要错过这个免费体验顶级AI编程助手的机会!
在线推理点对话 API
请求 URL
POST https://wanqing.streamlakeapi.com/api/gateway/v1/endpoints/chat/completions
请求头
Authorization: Bearer YOUR_API_KEY
Content-Type: application/json
请求参数
|-------------------|--------------|----|---------------------|
| 参数 | 类型 | 必填 | 描述 |
| model | string | 是 | 推理点 ID |
| messages | array | 是 | 对话消息列表 |
| temperature | float | 否 | 采样温度,范围 0-2,默认 1 |
| top_p | float | 否 | 核采样参数,范围 0-1,默认 1 |
| n | integer | 否 | 生成回复数量,默认 1 |
| stream | boolean | 否 | 是否流式返回,默认 false |
| stop | string/array | 否 | 停止词 |
| max_tokens | integer | 否 | 最大生成长度 |
| presence_penalty | float | 否 | 存在惩罚,范围 -2 到 2,默认 0 |
| frequency_penalty | float | 否 | 频率惩罚,范围 -2 到 2,默认 0 |
消息格式
{
"messages": [
{
"role": "",
"content": ""
}
],
"model": "",
"stream": false,
}
响应格式
服务端处理成功的请求,响应的 HTTP 状态码均为 200。
接口调用出错后,异常返回的 HTTP 状态码为 4xx 或 5xx。
成功响应(非流式)
{
"id": "req-71z2sj-1755282699618223575", // 请求Id,唯一标识一次请求
"object": "chat.completion", // 对象类型,表示这是 chat completion 响应
"created": 1741569952, // 创建该 chat completion 的 Unix 时间戳(单位为秒)
"model": "", // 生成该 chat completion 所使用的模型名称
"choices": [ // 模型生成的 chat completion 的候选列表(可能有多个候选回复)
{
"index": 0, // 该 chat completion 在候选列表中的索引,从0开始
"message": { // 消息内容
"role": "assistant", // 生成这条消息内容的角色类型(assistant)
"content": "你好,我可以帮你什么?", // 模型返回的实际回复内容
"refusal": null, // 拒绝原因(如果AI拒绝回答)
"annotations": [] // 注释信息(额外的元数据)
},
"logprobs": null, // 对数概率信息(用于分析生成概率)
// 模型停止生成的原因
"finish_reason": "stop" // 完成原因(stop/length/content_filter等)
}
],
"usage": { // 令牌使用统计
"prompt_tokens": 19, // 输入提示消耗的token数
"completion_tokens": 10, // 生成回复消耗的令牌数
"total_tokens": 29, // 总令牌数(prompt + completion)
"prompt_tokens_details": { // 输入令牌详细信息
"cached_tokens": 0, // 缓存的令牌数
"audio_tokens": 0 // 音频令牌数
},
"completion_tokens_details": { // 输出令牌详细信息
"reasoning_tokens": 0, // 推理过程使用的令牌数
"audio_tokens": 0, // 音频输出令牌数
"accepted_prediction_tokens": 0, // 接受的预测令牌数
"rejected_prediction_tokens": 0 // 拒绝的预测令牌数
}
},
"service_tier": "default" // 服务层级(default/scale等)
}
成功响应(流式)
data: {
"choices": [
{
"delta": {
"content": "你好"
},
"finish_reason": null,
"index": 0,
"logprobs": null
}
],
"created": 1755282700,
"event": "model_thought",
"id": "req-71z2sj-1755282699618223575",
"model": "qwen3-30b-a3b",
"object": "chat.completion.chunk",
"system_fingerprint": null,
"usage": null
}
......
data: {
"choices": [],
"created": 1755283049,
"id": "req-pg48yq-1755283048307453384",
"model": "qwen3-30b-a3b",
"object": "chat.completion.chunk",
"system_fingerprint": null,
"usage": {
"completion_tokens": 1470,
"completion_tokens_details": {
"reasoning_tokens": 454
},
"prompt_tokens": 11,
"total_tokens": 1481
}
}
data: [DONE]
错误响应
{
"ResponseMeta": {
// 请求ID
"RequestId": "",
// 错误码
"ErrorCode": "",
// 错误信息
"ErrorMessage": ""
}
}