这篇文章,从选题、大纲、到每一个字,都是用 DeepSeek TUI 写的。
0. 一个更让人意外的故事
在聊这个工具之前,先说它的作者。
DeepSeek TUI 的缔造者是一位叫 Hunter Bown 的独立开发者------没学过计算机,本职搞音乐。
一个非科班的音乐家,用 AI 写了个给 AI 用的编程工具。
听起来像段子,但这是真事。短短几天,项目 Star 数飙到 12000+,今天还登顶了 GitHub Trending 榜首。
这事最妙的地方在于:Hunter Bown 自己就是 DeepSeek TUI 的最佳用户画像------一个有想法、有痛点、但不想被工具链复杂度劝退的人。他用 AI 补齐了自己的技能缺口,然后把成果开源给了所有人。
如果说 Claude Code 是 Anthropic 这个专业团队用专业工具链(TypeScript + React + Ink)锻造的精致兵器,那 DeepSeek TUI 就是一个音乐家用 Rust 和 AI 对话攒出来的「野路子」------但它跑得飞快,做得漂亮。

好了,故事讲完,下面说正事。
1. DeepSeek TUI 是什么
DeepSeek TUI 是一个完全独立的终端原生编程智能体,由 Rust 从头构建,不依赖 Node.js、不依赖 Python,甚至不依赖任何第三方 AI 框架。
DeepSeek TUI 是一个完全运行在终端里的编程智能体。它让 DeepSeek V4 模型直接访问你的工作区:读写文件、运行 Shell 命令、搜索浏览网页、管理 Git、调度子智能体------全部通过快速、键盘驱动的 TUI 完成。

官方 README 的第一句话就说得很清楚:
"面向 DeepSeek V4 的终端原生编程智能体:100 万 token 上下文、思考模式流式推理、前缀缓存感知。自包含 Rust 二进制发布------开箱即带 MCP 客户端、沙箱和持久化任务队列。"
几个关键信息:
- 自包含 Rust 二进制:不依赖 Node.js 或 Python 运行时
- 面向 DeepSeek V4 构建 :原生支持
deepseek-v4-pro和deepseek-v4-flash - 100 万 token 上下文:原生超大上下文窗口
- 思考模式流式输出:可以实时观察模型推理过程
它的定位和 Claude Code 是同一类产品------终端原生编程智能体,但技术路线完全不同:
| 对比维度 | Claude Code | DeepSeek TUI |
|---|---|---|
| 实现语言 | TypeScript (Node.js) | Rust |
| UI 框架 | React + Ink | ratatui (Rust TUI) |
| 运行时依赖 | Node.js、npm | 无(单一二进制) |
| 底层模型 | Claude Sonnet/Opus | DeepSeek V4 Flash/Pro |
| API 接入 | Anthropic 官方 API | DeepSeek 官方 API |
| 开源协议 | 闭源(源码泄露) | MIT 开源 |
2. 核心功能一览
DeepSeek TUI 的功能矩阵非常完整,下面逐项展开。
2.1 100 万 Token 上下文 + 智能压缩
DeepSeek V4 原生支持 100 万 token 上下文窗口。当上下文接近上限时,TUI 会自动触发智能压缩 ------先机械修剪旧的工具结果,再进行付费摘要。同时支持前缀缓存感知,缓存命中的 token 成本约降低 99%。

2.2 思考模式流式输出
这是 DeepSeek TUI 最独特的体验之一:你可以实时观察模型在解决问题时的思维链展开。不是冷冰冰地等结果,而是看到它一步步分析、推理、排除错误选项------就像看一个经验丰富的工程师在调试问题时的心路历程。

2.3 原生 RLM 并行推理
RLM(Recursive Language Model)是 DeepSeek TUI 最"值钱"的设计------让一个主模型同时指挥一群更便宜的子 AI 干活。
具体来说:主模型(通常是 Pro)负责统筹全局、拆解任务,然后一次性并发调度 1-16 个 deepseek-v4-flash 子任务,分头去干各自的话,最后汇总成稿。
举个例子,让它给整个项目写文档。
主模型先扫一眼目录结构,把项目切成十几个模块,然后 16 个 Flash 子任务同时启动------一个去读路由层,一个去翻数据模型,一个去撸工具函数------全部并行推进。跑完之后,主模型把结果收回来,串成一份完整的项目文档。
原本 Pro 自己串行干,一个个模块读下来,可能要折腾一两个小时。现在十几分钟收工。
而且账单还砍掉一大半------Flash 的输出价格只有 Pro 的三分之一,16 个并发的总成本说不定比 Pro 单打独斗还低。
这才是 RLM 被"玩明白"的方式:不是把大模型当万能工人,而是让它当工头。
2.4 三种交互模式,从严到松
操作模式分成了三档,从左到右,控制权逐步下放:
Plan 🔍 --- 只读调查
只读探索。模型可以读文件、搜代码、提方案,但不执行任何写操作。适合接手新项目时先摸清结构,或者让别人帮你审一下架构设计------放心,不会乱动你的代码。
Agent 🤖 --- 每步确认
默认模式,也是日常最常用的。模型可以读写文件、跑命令,但每一步写操作都要你点头。AI 提议,你来拍板------效率和安全之间的平衡点。
YOLO ⚡ --- 可信工作区自动批准
全自动放行,模型自主执行所有工具调用,不用等你审批。适合在可信工作区跑 CI/CD 流水线、批量重构等场景。
三种模式可以在 TUI 内通过快捷键随时切换,不用退出会话。
2.5 推理强度调节
用 Shift+Tab 可以在 off → high → max 三档之间切换推理强度:
- off:快速响应,适合简单查询
- high:标准推理,适合日常编程
- max:深度推理,适合复杂架构设计和疑难 Bug 排查
2.6 工作区回滚(Side-Git)
DeepSeek TUI 通过独立的 side-git 记录每轮对话前后的文件快照,支持 /restore 和 revert_turn 命令回滚到任意历史状态。这套机制完全不影响项目自己的 .git 目录,不用担心污染 Git 历史。
2.7 持久化任务队列
后台任务在重启后仍然存在,支持计划任务 和长时间运行的操作。这意味着你可以让 DeepSeek TUI 在后台持续工作,关掉终端也不会丢失进度。
2.8 完整工具集
| 类别 | 工具 |
|---|---|
| 文件操作 | 读写、编辑、apply-patch、目录浏览 |
| Shell 执行 | 前台/后台命令、长任务轮询 |
| Git 集成 | status、diff、log、blame、show |
| 网页 | 搜索、浏览、URL 抓取 |
| 子智能体 | spawn 多个并行子任务 |
| MCP | 连接 Model Context Protocol 服务器扩展工具 |
| RLM | 递归语言模型批量并行推理 |
2.9 LSP 诊断
每次编辑后,DeepSeek TUI 自动通过 rust-analyzer、pyright、typescript-language-server、gopls、clangd 等 LSP 服务器提供内联错误和警告。这意味着你改完代码后,不需要切到 IDE 就能立刻看到有没有语法错误或类型问题。
2.10 技能系统
支持通过 GitHub 安装可组合的技能包(Skills),无需后端服务。每个技能是一个包含 SKILL.md 的目录,写清楚触发条件和指令,智能体就能在合适的场景自动加载。
markdown
---
name: my-skill
description: 当 DeepSeek 需要遵循我的自定义工作流时使用这个技能。
---
# My Skill
这里写给智能体的指令。
常用命令:/skills(列出)、/skill <name>(激活)、/skill install github:<owner>/<repo>(安装社区技能)。
2.11 多语言 UI
支持 en、ja、zh-Hans、pt-BR 四种语言,且 UI 语言与模型输出语言相互独立。在 TUI 内输入 /config → 选择 Edit locale → 输入 zh-Hans 即可切换为简体中文界面。

3. 安装指南
deepseek 是自包含 Rust 二进制,运行时不依赖 Node.js 或 Python。四种安装方式选一个:
方式一:npm(已有 Node 的最方便方式)
bash
npm install -g deepseek-tui
npm 包只是一个下载器,会从 GitHub Releases 拉取对应平台的预编译二进制,并不会让 deepseek 本身依赖 Node 运行时。
中国大陆访问较慢时可加镜像:
bash
npm install -g deepseek-tui --registry=https://registry.npmmirror.com
方式二:Cargo(Rust 用户首选)
bash
cargo install deepseek-tui-cli --locked # 提供 `deepseek` 入口
cargo install deepseek-tui --locked # 提供 `deepseek-tui` TUI 二进制
国内用户可配置清华镜像加速:
toml
# ~/.cargo/config.toml
[source.crates-io]
replace-with = "tuna"
[source.tuna]
registry = "sparse+https://mirrors.tuna.tsinghua.edu.cn/crates.io-index/"
方式三:Homebrew(macOS)
bash
brew tap Hmbown/deepseek-tui
brew install deepseek-tui
方式四:直接下载预编译二进制
无需任何工具链,从 GitHub Releases 下载对应平台的二进制文件即可。
覆盖平台:Linux x64/ARM64、macOS x64/ARM64、Windows x64。

4. 快速上手
4.1 配置 API Key
首次启动时会提示输入 DeepSeek API Key,密钥保存到 ~/.deepseek/config.toml。
也可以提前配置:
bash
# 方式一:命令行配置
deepseek auth set --provider deepseek
# 方式二:环境变量
export DEEPSEEK_API_KEY="YOUR_KEY"
deepseek
轮换或移除密钥:
deepseek auth clear --provider deepseek
4.2 启动
bash
deepseek # 交互式 TUI
deepseek "解释这个函数" # 一次性提示
deepseek --yolo # 自动批准模式

4.3 常用命令速查
| 命令 | 功能 |
|---|---|
deepseek |
启动交互式 TUI |
deepseek "task" |
执行一次性任务 |
deepseek --model deepseek-v4-flash |
指定模型 |
deepseek --yolo |
自动批准工具调用 |
deepseek doctor |
检查配置和连接 |
deepseek models |
列出可用 API 模型 |
deepseek sessions |
列出已保存会话 |
deepseek resume --last |
恢复最近会话 |
deepseek resume <ID> |
按 UUID 恢复指定会话 |
deepseek fork <ID> |
在指定轮次分叉会话 |
deepseek serve --http |
启动 HTTP/SSE API 服务 |
deepseek pr <N> |
获取 PR 并预填审查提示 |
deepseek update |
检查并更新二进制 |
4.4 常用快捷键
| 按键 | 功能 |
|---|---|
Tab |
补全 / 或 @;排队草稿;切换模式 |
Shift+Tab |
切换推理强度:off → high → max |
F1 |
可搜索帮助面板 |
Esc |
返回 / 关闭 |
Ctrl+K |
命令面板 |
Ctrl+R |
恢复旧会话 |
Alt+R |
搜索提示历史和恢复草稿 |
Ctrl+S |
暂存当前草稿 |
@path |
在输入框中附加文件或目录上下文 |
5. 模型与价格
| 模型 | 上下文 | 输入(缓存命中) | 输入(缓存未命中) | 输出 |
|---|---|---|---|---|
deepseek-v4-pro |
1M | $0.003625 / 1M* | $0.435 / 1M* | $0.87 / 1M* |
deepseek-v4-flash |
1M | $0.0028 / 1M | $0.14 / 1M | $0.28 / 1M |
DeepSeek V4 Pro 当前享受限时 75% 折扣,有效期至 2026 年 5 月 31 日。折扣结束后价格回退到基础定价。
一个直观的对比:Flash 的输出价格( <math xmlns="http://www.w3.org/1998/Math/MathML"> 0.28 / 1 M )只有 P r o ( 0.28/1M)只有 Pro( </math>0.28/1M)只有Pro(0.87/1M)的三分之一左右,输入价格更是低到了 $0.14/1M。写一篇万字文章消耗的 token 成本不超过几美分,日常编程辅助几乎零感知。
DeepSeek TUI 还内置了实时成本跟踪功能:按轮次和会话统计 token 用量与成本估算,包含缓存命中/未命中明细,让你对每一分钱花在哪了如指掌。
6. 更多能力
6.1 MCP 协议支持
通过 Model Context Protocol 连接外部工具和数据源,扩展智能体的能力边界。支持 deepseek mcp list 查看已配置服务器、deepseek mcp validate 校验连接。
6.2 HTTP/SSE 运行时 API
bash
deepseek serve --http
启动无界面智能体服务,适用于 CI/CD 流水线、自动化脚本等场景。
6.3 其他模型提供方
除了 DeepSeek 官方 API,还支持多种提供方:
bash
# NVIDIA NIM
deepseek auth set --provider nvidia-nim --api-key "YOUR_KEY"
deepseek --provider nvidia-nim
# Fireworks
deepseek --provider fireworks --model deepseek-v4-pro
# 自托管 (SGLang / vLLM / Ollama)
deepseek --provider ollama --model deepseek-coder:1.3b
6.4 会话保存与恢复
长任务支持断点续作------关闭终端、重启电脑后,用 deepseek resume --last 即可恢复之前的会话,进度不丢失。
7. 总结
DeepSeek TUI 不是 Claude Code 的"山寨版",而是一个技术路线完全不同的独立产品:
- Rust 原生,单一二进制,零运行时依赖
- 100 万 token 上下文,思考模式流式推理
- MIT 开源,社区驱动,贡献者超过 30 人
- 三种模式(Plan / Agent / YOLO),覆盖从只读审查到全自动执行
- RLM 并行推理 、工作区回滚 、持久化任务队列等高阶能力
它正在以开源的方式,重新定义「终端原生编程智能体」这个品类。
如果你已经受够了 Node.js 依赖链的臃肿、API 代理的不稳定、或者单纯想在终端里拥有一个真正趁手的 AI 编程搭档------DeepSeek TUI 值得你花 3 分钟装起来试一试。
相关链接
- GitHub 仓库:github.com/Hmbown/Deep...
- 官方中文 README:github.com/Hmbown/Deep...
- DeepSeek API 平台:platform.deepseek.com
- 安装文档:github.com/Hmbown/Deep...
- 架构说明:github.com/Hmbown/Deep...