Auto-Coder常用秘籍 autocoder.chat启动之后的处理

Auto-Coder手册:‍‌​​⁠​‍​‍‍‌‍‍⁠​​‬‌​​‬​‍⁠‬⁠⁠​​​‍​‌‬​​​‌‬‬⁠‍‌​‌​Auto-Coder.Chat: 通向智能编程之路 - 飞书云文档

控制窗口大小与压缩上下文

看到这篇文档里讲过:https://skywalk.blog.csdn.net/article/details/149067759

复制代码
/conf context_prune_safe_zone_tokens:30720
# /conf index_filter_model_max_input_length:30720
/conf index_filter_model_max_input_length:24576
/conf conversation_prune_safe_zone_tokens:24576

当时手里的模型token只有32k,所以三个参数都针对默认值进行了下调,下面为配置参数和默认值:

conversation_prune_safe_zone_tokens 上下文剪枝 51200

conversation_prune_safe_zone_tokens 索引文件建议51200

context_prune_safe_zone_tokens 单文件 24576

配置示例

64k窗口模型

复制代码
/conf conversation_prune_safe_zone_tokens:51200
/conf index_filter_model_max_input_length:51200
/conf context_prune_safe_zone_tokens:24576

128k窗口模型

对于token 窗口是128k的模型,可以选择翻一倍,即:

复制代码
/conf conversation_prune_safe_zone_tokens:102400
/conf index_filter_model_max_input_length:102400
/conf context_prune_safe_zone_tokens:49152

三个配置参数详解

conversation_prune_safe_zone_tokens

如果上下文过长,会触发剪枝动作。具体长度通过

/conf conversation_prune_safe_zone_tokens:51200

默认值为: 51200。 如果是 gemini 2.5 或者 quasar 等窗口很长的模型(code_model,chat_model,model),可以再翻一倍。

index_filter_model_max_input_length

索引文件很大(具体通过 index_filter_model_max_input_length) 来的判断是不是要分割处理。

/conf index_filter_model_max_input_length:51200

默认:51200 。 如果是窗口很大的的模型(index_model,model),可以试着至少提升一倍。

context_prune_safe_zone_tokens

配置单文件剪枝阈值

/conf context_prune_safe_zone_tokens:24576

碰到的问题

不过我也碰到了设置之后还是撑满的情况:

复制代码
conversation tokens: 180560 -> 101349 (conversation round: 352)
╭─ 🔥 Error ────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╮
│ Error: Connection failed. Error: r code: 400 - {'object': 'error', 'message': "This model's maximum context length is 131072 tokens. However, you │
│ requested 144864 tokens (136768 in the messages, 8096 in the completion). Please reduce the length of the messages or completion.", 'type':       │
│ 'BadRequestError', 'param': None, 'code': 400}    

所以我只能/auto /new 一下重新运行

相关推荐
*Lisen2 分钟前
从零手写 FlashAttention(PyTorch实现 + 原理推导)
人工智能·pytorch·python
昇腾CANN3 分钟前
TileLang-Ascend 算子性能优化方法与实操
开发语言·javascript·性能优化·昇腾·cann
字节跳动数据库4 分钟前
数据孤岛难打通、权限怕失控?DBW 助“小龙虾”落地最后一公里
人工智能
俊哥V12 分钟前
AI一周事件 · 2026-04-22 至 2026-04-28
人工智能·ai
沐知全栈开发14 分钟前
ionic 手势事件详解
开发语言
Black蜡笔小新23 分钟前
AI大模型训练工作站/私有化本地化AI模型训推工作站DLTM为农业生产装上AI“慧眼”
人工智能·ai大模型
小星AI24 分钟前
Claude Code Agent SDK 从入门到精通,一步到位
人工智能·agent·cursor
端平入洛26 分钟前
梯度是什么:PyTorch 自动求导详解
人工智能·深度学习
时序之心27 分钟前
上海交大、东北大学:时序分类与感知领域的两项前沿突破
人工智能·分类·时间序列
小五兄弟35 分钟前
YouTube 肖像检测扩展背后:短剧出海版权保护的技术实现与实战策略
大数据·人工智能