一个搞音乐的,用 AI 写了款编程工具DeepSeek TUI,本文就是它写的

这篇文章,从选题、大纲、到每一个字,都是用 DeepSeek TUI 写的。

0. 一个更让人意外的故事

在聊这个工具之前,先说它的作者。

DeepSeek TUI 的缔造者是一位叫 Hunter Bown 的独立开发者------没学过计算机,本职搞音乐。

一个非科班的音乐家,用 AI 写了个给 AI 用的编程工具。

听起来像段子,但这是真事。短短几天,项目 Star 数飙到 12000+,今天还登顶了 GitHub Trending 榜首。

这事最妙的地方在于:Hunter Bown 自己就是 DeepSeek TUI 的最佳用户画像------一个有想法、有痛点、但不想被工具链复杂度劝退的人。他用 AI 补齐了自己的技能缺口,然后把成果开源给了所有人。

如果说 Claude Code 是 Anthropic 这个专业团队用专业工具链(TypeScript + React + Ink)锻造的精致兵器,那 DeepSeek TUI 就是一个音乐家用 Rust 和 AI 对话攒出来的「野路子」------但它跑得飞快,做得漂亮。

好了,故事讲完,下面说正事。


1. DeepSeek TUI 是什么

DeepSeek TUI 是一个完全独立的终端原生编程智能体,由 Rust 从头构建,不依赖 Node.js、不依赖 Python,甚至不依赖任何第三方 AI 框架。

DeepSeek TUI 是一个完全运行在终端里的编程智能体。它让 DeepSeek V4 模型直接访问你的工作区:读写文件、运行 Shell 命令、搜索浏览网页、管理 Git、调度子智能体------全部通过快速、键盘驱动的 TUI 完成。

官方 README 的第一句话就说得很清楚:

"面向 DeepSeek V4 的终端原生编程智能体:100 万 token 上下文、思考模式流式推理、前缀缓存感知。自包含 Rust 二进制发布------开箱即带 MCP 客户端、沙箱和持久化任务队列。"

几个关键信息:

  • 自包含 Rust 二进制:不依赖 Node.js 或 Python 运行时
  • 面向 DeepSeek V4 构建 :原生支持 deepseek-v4-prodeepseek-v4-flash
  • 100 万 token 上下文:原生超大上下文窗口
  • 思考模式流式输出:可以实时观察模型推理过程

它的定位和 Claude Code 是同一类产品------终端原生编程智能体,但技术路线完全不同:

对比维度 Claude Code DeepSeek TUI
实现语言 TypeScript (Node.js) Rust
UI 框架 React + Ink ratatui (Rust TUI)
运行时依赖 Node.js、npm 无(单一二进制)
底层模型 Claude Sonnet/Opus DeepSeek V4 Flash/Pro
API 接入 Anthropic 官方 API DeepSeek 官方 API
开源协议 闭源(源码泄露) MIT 开源

2. 核心功能一览

DeepSeek TUI 的功能矩阵非常完整,下面逐项展开。

2.1 100 万 Token 上下文 + 智能压缩

DeepSeek V4 原生支持 100 万 token 上下文窗口。当上下文接近上限时,TUI 会自动触发智能压缩 ------先机械修剪旧的工具结果,再进行付费摘要。同时支持前缀缓存感知,缓存命中的 token 成本约降低 99%。

2.2 思考模式流式输出

这是 DeepSeek TUI 最独特的体验之一:你可以实时观察模型在解决问题时的思维链展开。不是冷冰冰地等结果,而是看到它一步步分析、推理、排除错误选项------就像看一个经验丰富的工程师在调试问题时的心路历程。

2.3 原生 RLM 并行推理

RLM(Recursive Language Model)是 DeepSeek TUI 最"值钱"的设计------让一个主模型同时指挥一群更便宜的子 AI 干活。

具体来说:主模型(通常是 Pro)负责统筹全局、拆解任务,然后一次性并发调度 1-16 个 deepseek-v4-flash 子任务,分头去干各自的话,最后汇总成稿。

举个例子,让它给整个项目写文档。

主模型先扫一眼目录结构,把项目切成十几个模块,然后 16 个 Flash 子任务同时启动------一个去读路由层,一个去翻数据模型,一个去撸工具函数------全部并行推进。跑完之后,主模型把结果收回来,串成一份完整的项目文档。

原本 Pro 自己串行干,一个个模块读下来,可能要折腾一两个小时。现在十几分钟收工。

而且账单还砍掉一大半------Flash 的输出价格只有 Pro 的三分之一,16 个并发的总成本说不定比 Pro 单打独斗还低。

这才是 RLM 被"玩明白"的方式:不是把大模型当万能工人,而是让它当工头。

2.4 三种交互模式,从严到松

操作模式分成了三档,从左到右,控制权逐步下放:

Plan 🔍 --- 只读调查

只读探索。模型可以读文件、搜代码、提方案,但不执行任何写操作。适合接手新项目时先摸清结构,或者让别人帮你审一下架构设计------放心,不会乱动你的代码。

Agent 🤖 --- 每步确认

默认模式,也是日常最常用的。模型可以读写文件、跑命令,但每一步写操作都要你点头。AI 提议,你来拍板------效率和安全之间的平衡点。

YOLO ⚡ --- 可信工作区自动批准

全自动放行,模型自主执行所有工具调用,不用等你审批。适合在可信工作区跑 CI/CD 流水线、批量重构等场景。

三种模式可以在 TUI 内通过快捷键随时切换,不用退出会话。

2.5 推理强度调节

Shift+Tab 可以在 off → high → max 三档之间切换推理强度:

  • off:快速响应,适合简单查询
  • high:标准推理,适合日常编程
  • max:深度推理,适合复杂架构设计和疑难 Bug 排查

2.6 工作区回滚(Side-Git)

DeepSeek TUI 通过独立的 side-git 记录每轮对话前后的文件快照,支持 /restorerevert_turn 命令回滚到任意历史状态。这套机制完全不影响项目自己的 .git 目录,不用担心污染 Git 历史。

2.7 持久化任务队列

后台任务在重启后仍然存在,支持计划任务长时间运行的操作。这意味着你可以让 DeepSeek TUI 在后台持续工作,关掉终端也不会丢失进度。

2.8 完整工具集

类别 工具
文件操作 读写、编辑、apply-patch、目录浏览
Shell 执行 前台/后台命令、长任务轮询
Git 集成 status、diff、log、blame、show
网页 搜索、浏览、URL 抓取
子智能体 spawn 多个并行子任务
MCP 连接 Model Context Protocol 服务器扩展工具
RLM 递归语言模型批量并行推理

2.9 LSP 诊断

每次编辑后,DeepSeek TUI 自动通过 rust-analyzer、pyright、typescript-language-server、gopls、clangd 等 LSP 服务器提供内联错误和警告。这意味着你改完代码后,不需要切到 IDE 就能立刻看到有没有语法错误或类型问题。

2.10 技能系统

支持通过 GitHub 安装可组合的技能包(Skills),无需后端服务。每个技能是一个包含 SKILL.md 的目录,写清楚触发条件和指令,智能体就能在合适的场景自动加载。

markdown 复制代码
---
name: my-skill
description: 当 DeepSeek 需要遵循我的自定义工作流时使用这个技能。
---

# My Skill
这里写给智能体的指令。

常用命令:/skills(列出)、/skill <name>(激活)、/skill install github:<owner>/<repo>(安装社区技能)。

2.11 多语言 UI

支持 en、ja、zh-Hans、pt-BR 四种语言,且 UI 语言与模型输出语言相互独立。在 TUI 内输入 /config → 选择 Edit locale → 输入 zh-Hans 即可切换为简体中文界面。


3. 安装指南

deepseek 是自包含 Rust 二进制,运行时不依赖 Node.js 或 Python。四种安装方式选一个:

方式一:npm(已有 Node 的最方便方式)

bash 复制代码
npm install -g deepseek-tui

npm 包只是一个下载器,会从 GitHub Releases 拉取对应平台的预编译二进制,并不会让 deepseek 本身依赖 Node 运行时。

中国大陆访问较慢时可加镜像:

bash 复制代码
npm install -g deepseek-tui --registry=https://registry.npmmirror.com

方式二:Cargo(Rust 用户首选)

bash 复制代码
cargo install deepseek-tui-cli --locked   # 提供 `deepseek` 入口
cargo install deepseek-tui     --locked   # 提供 `deepseek-tui` TUI 二进制

国内用户可配置清华镜像加速:

toml 复制代码
# ~/.cargo/config.toml
[source.crates-io]
replace-with = "tuna"

[source.tuna]
registry = "sparse+https://mirrors.tuna.tsinghua.edu.cn/crates.io-index/"

方式三:Homebrew(macOS)

bash 复制代码
brew tap Hmbown/deepseek-tui
brew install deepseek-tui

方式四:直接下载预编译二进制

无需任何工具链,从 GitHub Releases 下载对应平台的二进制文件即可。

覆盖平台:Linux x64/ARM64、macOS x64/ARM64、Windows x64


4. 快速上手

4.1 配置 API Key

首次启动时会提示输入 DeepSeek API Key,密钥保存到 ~/.deepseek/config.toml

也可以提前配置:

bash 复制代码
# 方式一:命令行配置
deepseek auth set --provider deepseek

# 方式二:环境变量
export DEEPSEEK_API_KEY="YOUR_KEY"
deepseek

轮换或移除密钥:deepseek auth clear --provider deepseek

4.2 启动

bash 复制代码
deepseek                    # 交互式 TUI
deepseek "解释这个函数"      # 一次性提示
deepseek --yolo             # 自动批准模式

4.3 常用命令速查

命令 功能
deepseek 启动交互式 TUI
deepseek "task" 执行一次性任务
deepseek --model deepseek-v4-flash 指定模型
deepseek --yolo 自动批准工具调用
deepseek doctor 检查配置和连接
deepseek models 列出可用 API 模型
deepseek sessions 列出已保存会话
deepseek resume --last 恢复最近会话
deepseek resume <ID> 按 UUID 恢复指定会话
deepseek fork <ID> 在指定轮次分叉会话
deepseek serve --http 启动 HTTP/SSE API 服务
deepseek pr <N> 获取 PR 并预填审查提示
deepseek update 检查并更新二进制

4.4 常用快捷键

按键 功能
Tab 补全 /@;排队草稿;切换模式
Shift+Tab 切换推理强度:off → high → max
F1 可搜索帮助面板
Esc 返回 / 关闭
Ctrl+K 命令面板
Ctrl+R 恢复旧会话
Alt+R 搜索提示历史和恢复草稿
Ctrl+S 暂存当前草稿
@path 在输入框中附加文件或目录上下文

5. 模型与价格

模型 上下文 输入(缓存命中) 输入(缓存未命中) 输出
deepseek-v4-pro 1M $0.003625 / 1M* $0.435 / 1M* $0.87 / 1M*
deepseek-v4-flash 1M $0.0028 / 1M $0.14 / 1M $0.28 / 1M

DeepSeek V4 Pro 当前享受限时 75% 折扣,有效期至 2026 年 5 月 31 日。折扣结束后价格回退到基础定价。

一个直观的对比:Flash 的输出价格( <math xmlns="http://www.w3.org/1998/Math/MathML"> 0.28 / 1 M )只有 P r o ( 0.28/1M)只有 Pro( </math>0.28/1M)只有Pro(0.87/1M)的三分之一左右,输入价格更是低到了 $0.14/1M。写一篇万字文章消耗的 token 成本不超过几美分,日常编程辅助几乎零感知。

DeepSeek TUI 还内置了实时成本跟踪功能:按轮次和会话统计 token 用量与成本估算,包含缓存命中/未命中明细,让你对每一分钱花在哪了如指掌。


6. 更多能力

6.1 MCP 协议支持

通过 Model Context Protocol 连接外部工具和数据源,扩展智能体的能力边界。支持 deepseek mcp list 查看已配置服务器、deepseek mcp validate 校验连接。

6.2 HTTP/SSE 运行时 API

bash 复制代码
deepseek serve --http

启动无界面智能体服务,适用于 CI/CD 流水线、自动化脚本等场景。

6.3 其他模型提供方

除了 DeepSeek 官方 API,还支持多种提供方:

bash 复制代码
# NVIDIA NIM
deepseek auth set --provider nvidia-nim --api-key "YOUR_KEY"
deepseek --provider nvidia-nim

# Fireworks
deepseek --provider fireworks --model deepseek-v4-pro

# 自托管 (SGLang / vLLM / Ollama)
deepseek --provider ollama --model deepseek-coder:1.3b

6.4 会话保存与恢复

长任务支持断点续作------关闭终端、重启电脑后,用 deepseek resume --last 即可恢复之前的会话,进度不丢失。


7. 总结

DeepSeek TUI 不是 Claude Code 的"山寨版",而是一个技术路线完全不同的独立产品:

  • Rust 原生,单一二进制,零运行时依赖
  • 100 万 token 上下文,思考模式流式推理
  • MIT 开源,社区驱动,贡献者超过 30 人
  • 三种模式(Plan / Agent / YOLO),覆盖从只读审查到全自动执行
  • RLM 并行推理工作区回滚持久化任务队列等高阶能力

它正在以开源的方式,重新定义「终端原生编程智能体」这个品类。

如果你已经受够了 Node.js 依赖链的臃肿、API 代理的不稳定、或者单纯想在终端里拥有一个真正趁手的 AI 编程搭档------DeepSeek TUI 值得你花 3 分钟装起来试一试。


相关链接

相关推荐
GISer_Jing2 小时前
GitHub原生DevOps全链路实战:从代码提交到生产部署的自动化闭环
自动化·github·devops
阿里嘎多学长2 小时前
2026-05-08 GitHub 热点项目精选
开发语言·程序员·github·代码托管
@atweiwei2 小时前
LangChainRust Agent 引擎:Graph 构建到执行
rust·langchain·llm·agent·rag·langchaingraph
GISer_Jing3 小时前
全栈实战:分支管理到CI/CD全流程
运维·前端·ci/cd·github·devops
GISer_Jing3 小时前
GitHub Actions 完整 Token/Secret 配置详解(Vercel + Docker 2026最新版)
docker·容器·github
Lw老王要学习3 小时前
Windows 11 安装配置 Docker Desktop 并部署 sqlbot 完整指南
windows·docker·容器·agent·sqlbot
jiayi_19993 小时前
[github] 上传本地repo
大数据·elasticsearch·github
布朗克1683 小时前
AI 智能体(AI Agent)初步介绍:从概念到全球排行榜
人工智能·ai·agent
Chef_Chen3 小时前
Agent-Tool Use
agent·memory