claude code架构猜测总结

一句话总览

Claude Code 本质 =「LLM 驱动的 Tool-Calling 循环」+「逐层外置的认知结构」

模型是 Agent,本体代码只负责:约束、反馈、隔离、注入知识


一、最底层原理:Agent Loop(不变内核)

所有版本共享同一个不可约核心:

text 复制代码
while True:
  LLM(messages, tools)
  if 无 tool_use: 结束
  执行 tool
  tool_result → 作为新上下文反馈给 LLM

关键点:

  • 决策权完全在模型:选什么工具、顺序、是否结束

  • 代码是被动执行器

  • Claude Code 的"智能"≠复杂调度,而是 LLM 自反式决策能力

👉 这在 v0--v4 中完全一致


二、v0 → v1:能力来源不是工具数量,而是「可达性」

v0:Bash is All You Need

  • 只有 1 个 bash 工具

  • 通过 shell 组合能力 → 读/写/执行/递归子进程

  • 子代理 = 进程隔离python v0_bash_agent.py "task"

👉 证明:
Agent ≠ 多工具系统,Agent = 自主循环 + 可执行环境

v1:4 工具是"工程最小集"

  • bash / read / write / edit

  • 提供 更低 token 成本、更稳定的调用接口

  • 认知仍然完全在模型隐空间

👉 v1 的价值是工程化,而非架构升级


三、v2:显式认知 = 把「思考」外置成状态机

问题

  • 模型计划存在于隐状态

  • 长任务 → Context Fade

解决:TodoWrite

  • Todo 列表 = 外显的中间思考结构

  • 约束:

    • ≤20 项

    • 同时仅 1 个 in_progress

本质:

Todo 不是给人看的,而是 给模型自己看的工作记忆

👉 Claude Code 开始具备 "外部工作记忆"


四、v3:子代理 = 上下文隔离,而不是多智能体

关键问题:Context Pollution

  • 探索代码 ≠ 实施修改

  • 混在一个 history 里 → token 被"垃圾信息"占满

Task / Subagent 机制

  • 子代理:

    • 独立 message history

    • 工具白名单

    • 专用 system prompt

  • 父代理只拿到 summary

这是 进程级上下文隔离,不是 Agent 协作框架

👉 本质是 "函数调用 + 返回值",不是自治多体


五、v4:Skills = 把「知识」从参数中剥离

核心转折点:Knowledge Externalization

传统 Claude Code
知识在模型参数 知识在 SKILL.md
训练才能新增 写文件即可
隐式、不可控 显式、可版本化

Skill 注入的关键工程点

  • 不是 system prompt

  • 而是通过 tool_result 注入

  • 不破坏 prompt cache(成本下降 20--50x)

Skill ≠ Tool

Tool = 能力

Skill = 操作范式 +专家流程

👉 Claude Code 的可扩展性来源于 "知识文件系统"


六、整体架构抽象(最终形态)

复制代码
┌──────────────────────────────────┐
│           LLM (Agent)             │
│  - 决策 / 规划 / 反思              │
└───────────────▲──────────────────┘
                │
        tool_result (反馈)
                │
┌───────────────┴──────────────────┐
│          Agent Runtime            │
│  - Tool 执行                       │
│  - Todo 状态机                     │
│  - Task 子代理                     │
│  - Skill 注入                      │
└──────────────────────────────────┘

不变的只有一件事:

LLM 是唯一的"智能体",其他都是外置认知器官


七、为什么这套架构有效(核心原因)

  1. 最大化利用模型已训练的 Agent 能力

  2. 把易退化的认知结构外显

  3. 通过隔离与约束降低 token 噪声

  4. 用文件系统承载"可维护知识"

所以 Claude Code 强,不是因为工程复杂,

而是 工程极度克制


八、给你的定位算法背景的一句映射(类比)

如果类比 SLAM:

Claude Code SLAM
LLM 后端优化器
Tools 传感器模型
Todo 状态图 / factor graph
Subagent 局部子地图
Skills 先验地图 /语义约束

相关推荐
狗哥哥8 小时前
微前端架构下的平台级公共组件资源体系设计
前端·架构
两万五千个小时8 小时前
落地实现 Anthropic Multi-Agent Research System
人工智能·python·架构
程序员柒叔8 小时前
Dify 流水线知识库(RAG Pipeline)深度分析
agent
马腾化云东8 小时前
Agent开发应知应会(langfuse):Langfuse Score概念详解和实战应用
人工智能·llm·ai编程
Baihai_IDP8 小时前
HackerNews 热榜第一名:AGI 的 A,原来代表的是 Ads(广告)
人工智能·程序员·llm
Mintopia9 小时前
思想长期停在事物表面的深层原因:认知机制、环境结构与技术化治理
架构
兆子龙9 小时前
React Compiler 来了:少写 useMemo,照样稳
前端·架构
回家路上绕了弯10 小时前
深入解析Claude Skill:原理、特性与实战应用全指南
后端·agent
吴佳浩11 小时前
OpenClaw Windows 完整安装与本地模型配置教程(实战版)
llm·openai
四月沐歌1 天前
测试火山引擎AgentKit记忆库和踩坑问题记录
agent