RTK - CLI 代理工具,减少 LLM 80% token 消耗 | X-CMD 推荐

RTK - 减少 AI 80% token 消耗的 CLI 工具

如果你想持续获取更多相关资讯,欢迎关注 x-cmd 博客

用 AI 辅助编程时,每次执行 git statuscargo testnpm run build,原始输出动辄几百上千 token。RTK 在你和终端之间加了一层"过滤器",把冗余的注释、空格、重复行去掉,压缩到原来的十分之一。一次 30 分钟的 Claude Code 会话,能省下约 8 万 token。

纯 Rust 写的 CLI 工具,单二进制、零依赖,运行时额外开销不到 10ms。

安装

bash 复制代码
# x-cmd 安装
x install rtk

# Homebrew
brew install rtk

# 快速安装
curl -fsSL https://raw.githubusercontent.com/rtk-ai/rtk/refs/heads/master/install.sh | sh

验证安装:rtk --version

快速开始

bash 复制代码
# 1. 安装自动重写钩子
rtk init --global

# 2. 重启 Claude Code

# 3. 测试
git status  # 自动被改写成 rtk git status

钩子透明地将 Bash 命令改写成 RTK 等价命令,AI 收到的输出已经被压缩。

重要:钩子只对 Bash 工具调用生效。Claude Code 内置的 Read、Grep、Glob 等工具不经过 Bash 钩子。

核心命令

命令 说明
rtk ls . 目录树
rtk read file.rs 文件读取
rtk git status 紧凑状态
rtk git diff 精简 diff
rtk git push 输出 "ok main"
rtk test cargo test 只显示失败用例
rtk pytest Python 测试
rtk docker ps 容器列表
rtk gain Token 节省统计

Token 节省效果

操作 频率 原始 RTK 后 节省
git status 10x 3,000 600 80%
git diff 5x 10,000 2,500 75%
cargo test 5x 25,000 2,500 90%
grep/rg 8x 16,000 3,200 80%
pytest 4x 8,000 800 90%

一次会话约节省 80% token 消耗。

工作原理

RTK 在终端命令和 AI 之间架设代理,对输出应用四大策略:

  • 智能过滤:去掉注释、空格、模板代码
  • 分组聚合:文件按目录、错误按类型分组
  • 截断保留:保留关键上下文,剪掉重复
  • 去重压缩:重复行合并为带计数的单行

适用场景

  • AI 编程辅助:终端输出质量直接影响 AI 理解效率
  • 频繁执行开发命令:一天几十次 git/test/build,节省累积明显
  • 大项目输出处理lsgrep 结果几百行,压缩后 AI 处理更快

相关资源

来源:

https://github.com/rtk-ai/rtk

相关推荐
AI探知-阿薇2 小时前
cc-switch 深度解析:终端 AI 编程助手的统一控制平面是怎么炼成的?
人工智能·平面·ai编程
高洁012 小时前
数字孪生底层逻辑和技术
人工智能·深度学习·信息可视化·数据挖掘·transformer
L-影2 小时前
下篇:从静态到动态,Embedding的进化之路
人工智能·ai·embedding
不懒不懒2 小时前
【矿物数据缺失值填充:六种方法的实现与对比】
人工智能·机器学习
Mr.Cheng.2 小时前
A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive
人工智能
badhope2 小时前
Python、C、Java 终极对决!谁主沉浮?谁将消亡?
java·c语言·开发语言·javascript·人工智能·python·github
良凯尔2 小时前
PicoClaw vs OpenClaw:“皮皮虾”遇上“小龙虾”,谁才是轻量级 AI 助手的最优解
ai·openclaw
薛不痒2 小时前
模型部署:基于flask和pytorch
人工智能·pytorch·python·深度学习·flask
bestadc2 小时前
Hello-Agents 第二章 智能体发展史 学习笔记
ai·agent