Agent / Skills / Teams 架构演进流程及技术选型之道

前几天阅读了一些阿里、蚂蚁大佬们在内部分享的 AI 技术文章。其中有几篇写的实在太好,学习完之后受益极大。在这里分享给大家~

背景

近几年,我一直从事于 Agent 领域的探索、应用与实践,也陆续沉淀了许多相关的技术文章,相信不少朋友都读过我之前那篇《如何构建和调优高可用性的 Agent?浅谈阿里云服务领域 Agent 构建的方法论》。在那篇文章中,我们从 Agent 的概念起源聊到落地挑战,再到具体的解决方案,进行了一次较为系统的梳理。后来随着上下文工程、Multi-Agent、Agent Skills 等技术的不断发展,我又通过《如何让 Agent 更符合预期?基于上下文工程和多智能体构建云小二 Aivis 的十大实战经验》详细介绍了我们在多个 Agent 技术细节上的一些落地实践经验。

从生成式 LLM 爆发的变革到催生 Agent 的快速发展,AI 发展的浪潮从未停歇。随着近半年来,Anthropic 在 Claude Code 上前后实践和推出了 Agent Skills、Agent Teams 等全新的技术范式,Agent 的构建逻辑与能力边界正在被重新定义。站在当前这个时间节点,当我们再次探讨"如何构建一个优秀的 Agent"以及"如何进行技术架构选型"时,原有的视角或许已不足以应对各种场景及的变化。

我认为,在深入讨论具体的技术选型之前,首要任务是理清 Agent 的演化路径 。这条路径其实整体上是清晰且可循的:从最初的单点提示词调用工作流编排 ,再到多智能体协同自主规划 ,到后来 Agent Skills 的可复用能力、Agent Teams 的并行探索。只有理解了这一演化脉络,我们才能在面对复杂场景时,做出更精准的技术选型。

因此,本文将会根据我本身的实践经验,以及结合下面的几篇文章,重新整理并分享关于 Agent、Multi-Agent,包括 Agent Skills、Agent Teams 的架构演进与选型的思考:

Agent 架构的演化本质

为什么市面上会出现如此纷繁复杂的 Agent 架构?追根溯源,这并不是纯粹是为了炫技,而是对大模型底层能力缺失的一种补偿机制。本质上,Agent 架构的演化史,就是因为我们在基础大模型无法完美内化"领域知识"和高效复用"长期记忆"的背景下 ,不断尝试"外挂"出这些能力的。本质上 就是大家对大模型如何更好的 注入领域知识记忆管理这两方面的需求,不断促进了 Agent 架构的演化。

不妨畅享一下,假设某一天,我们已经实现了这样的效果:LLM 基座模型天生就具备完美的领域知识注入和自主记忆的能力,只要我们将海量的行业文档、业务规则直接"喂"给模型,它就能瞬间记住并精准执行任务,那么今天我们所讨论的各种 RAG、Multi-Agent、Workflow、Skills 等架构模式可能都将失去存在的意义。因为大模型本身已经从根源上解决了"学什么"和"记什么"的问题。

然而,现实是骨感的。回想 2023~2024 年,在大模型发展的早期,业界普遍认为解决领域垂类知识注入问题的最优解是模型训练 。这套从 BERT 时代就发展过来的 "预训练-微调" 范式一直走到了 LLM 时代,我们将基础模型作为底座,通过 SFT、DPO 等模型微调,再加上 RLHF、GRPO 等强化学习方式,试图将领域知识"刻录"进模型的参数中。在那个阶段,我们也基于 Qwen 早期版本作为基座模型进行了很多轮次的、深入的模型训练、微调实践。

但是,随着训练过程的深入,几个难以回避的痛点逐渐浮出水面:

  • 训练成本高昂且周期长:每一次针对垂直领域的训练,都需要投入巨大的人力物力去清洗数据、构造合成数据、设计评测集。这不仅需要昂贵的 GPU 算力资源,更伴随着漫长的训练时间周期。
  • 效果评测与泛化难题:训练完成后,如何科学地证明新模型相比基座模型有显著提升,同时又没有丧失通用的泛化能力,是一个巨大的挑战。很多时候,我们在提升特定任务表现的同时,却意外导致了模型在其他场景下的"灾难性遗忘",这就导致模型在垂类某些特定任务上相对有效,但在其他任务上却很容易失去泛化效果。
  • 基座迭代速度远超训练周期 :这是最致命的一点。开源或闭源的基座正以非线性的速度飞速迭代。往往当我们耗费数月心血、投入大量资源训练出一个专属领域模型时,新一代的基座模型已经发布,其原生能力可能已经轻松超越了我们辛苦训练的旧版本模型。这种 "刚毕业就失业" 的窘境,使得单纯依赖训练来构建领域模型变得极不划算。

除了成本与时效性问题,硬件门槛和模型生态的变化也加速了这一转变。随着 Scaling Law 的生效,顶尖模型的参数量日益庞大,传统的单机甚至小规模集群已难以承担训练任务。更重要的是,目前最强有力的模型多为闭源状态。即便我们使用开源的顶尖模型作为基础进行训练,其最终效果往往也难以匹敌闭源巨头的最新基座模型。在这种"投入产出比"严重失衡的背景下,继续死磕模型训练显然不再是明智之选。

这就说明,现阶段的 LLM 在 特定领域的知识内化长周期记忆管理上 仍存在显著的挑战。既然"向内"修改模型参数的路走不通,或者性价比太低,我们自然开始转向"向外"寻求解决方案:如何在不改变模型权重的前提下,通过架构设计更高效地注入领域知识?

这正是 Agent 架构演化的逻辑起点,我们不得不在大模型外围构建层层叠叠的结构与工具,通过"工程化"的手段来辅助其完成知识的检索、上下文的组装以及记忆的维护。这也正是当前各类 Agent 架构百花齐放的最本质的原因。我们不再执着于让模型"记住"所有知识,而是转而设计一套机制,让模型能够"找到"并"理解"所需的知识。基于这一思路,Agent 架构的演化逐渐分化出了四条最主要的路径:"Single Agent → Multi-Agent → Agent Skills → Agent Teams"。

Single Agent:知识注入与上下文窗口博弈

在探索 Agent 落地的过程中,我们最先尝试的往往是 Single Agent 架构(单智能体) 。其核心逻辑非常直观:既然大模型无法直接内化我们特定的领域知识,那我们就通过 System Prompt的方式,将这些知识"无脑"地注入到大模型的上下文中,期望它能基于这些注入的信息生成符合预期的答案。

这种做法最大的优势在于 实现成本极低、开发效率极高 。你只需要将领域知识整理好,配合清晰的指令写入系统级指令的 System Prompt 中,再使用基础模型原生的 ReAct 模式自主调用工具、记录上下文并解决问题。对于生成简单的代码段、写文案、执行某类标准化输出等场景,这种串行调用的单 Agent 模式往往能跑出最流畅的体验,是 验证想法、ROI 最高的原型方案。

然而,随着实践的深入,我们发现这种看似简单的架构隐藏着一个致命的瓶颈:Context Window 会爆炸

尽管当前主流大模型纷纷宣称支持百万甚至千万级的 Token 上下文长度,但在实际生产环境中,如果你真的将海量背景知识或长文档直接"扔"给模型,效果往往不尽如人意。这背后涉及到一个容易被忽视的技术真相:长上下文并不等于长记忆 。当输入数据量达到一定阈值时,模型极易出现 "Lost in the Middle" 问题,也就是 "注意力缺失" 或者 "关键信息遗忘" 的现象,导致其无法精准定位到所需的领域知识,最终输出的结果偏离预期。

在这里,我们需要明确一下讨论的范畴。本文所指的 Single Agent,主要指的是"狭义的"基于 ReAct 的自主 Agent 概念,使用 System Prompt 驱动、串行调用工具的原生 Agent 运行模式。至于那些结构复杂、包含多分支判断的 Workflow,我们更倾向于将其视为一种高级的工具 Tool 或者 Sub-Agent,而非单纯的 Single Agent 形态,因此就不在本章节重点展开了。关于 Agent 和 Workflow 的介绍和争议,可以参考我的文章《Agent 概念的争议》。

总结来说,单 Agent 优势和劣势非常明显:

  • 优势:最原生的架构、开发链路最短、运行效率极高,适合快速构建 Demo 或处理知识依赖较少的场景。
  • 劣势:极度依赖上下文窗口的质量与长度。一旦涉及大量领域知识的注入,极易引发上下文爆炸,导致模型注意力分散,稳定性大幅下降。

这也引出了我们后续需要思考的关键问题:当单点突破遇到上下文瓶颈时,我们该如何通过架构演进,在保持灵活性的同时解决知识承载的问题?

面对这一困境,行业普遍采用的解决方案是引入 RAG(检索增强生成)

RAG 可以看作是在 Single Agent 基础上的一次重要演进。它的核心逻辑是"先搜后答":在将知识注入大模型之前,先利用搜索工具进行一轮召回(Recall),仅将与用户问题相关度最高的那部分片段提取出来,作为上下文提供给 Agent。

这在一定程度上巧妙规避了 Context Window 的长度限制,让 Agent 能够"按需获取"知识,而非"全量吞咽"。然而,RAG 架构的效果存在一个致命的依赖链 ------ "垃圾进,垃圾出"(Garbage In, Garbage Out)。Agent 的最终表现高度依赖于前置搜索环节的准确率。如果检索阶段未能召回正确的知识片段,无论后端的大模型能力多强,都无法生成正确的答案。

这里存在一个显著的能力断层,就是 RAG 的前置检索过程,通常依赖于关键词匹配(比如 BM25)或基于小参数量的 Embedding 模型(如 BERT、BGE 等)。尽管近年来出现了很多基于 LLM 的 Embedding 模型,但总体而言,这些专用检索模型的语义理解能力和推理深度,与大模型直接阅读并理解全文的能力相比,仍存在差距。这种"小模型前置辅助大模型"的模式,往往会导致关键信息的漏召或误召,成为制约 Agent 效果的瓶颈。

基于上述分析,我们可以清晰地界定单 Agent 的边界。它虽然并不适合所有场景,但在以下条件下,它依然是性价比最高、落地最快的选择:

  1. 场景复杂度较低:业务逻辑相对简单,不需要复杂的多步推理或长链条规划。
  2. 知识体量可控 :领域知识总量适中,或者经过清洗后,核心指令和背景知识在 2 万个 Token 以内能表述清楚,可以直接通过 System Prompt 注入。
  3. 检索质量有保障:当必须使用 RAG 时,前提是你的知识库结构清晰,且现有的检索算法(关键词或向量)能够达到较高的召回准确率。

简而言之,如果你的需求是 "小而美" ,或者你的领域知识边界清晰、检索链路成熟,那么单 Agent架构完全足以胜任,无需过度设计。但当面对海量非结构化数据、复杂推理需求或对检索准确率极其敏感的场景时,我们就需要跳出单点的思维,探索更复杂的架构演进了。

Multi-Agent:架构隔离与通信带宽的权衡

面对单 Agent 在海量知识注入和复杂场景处理上的局限,Multi-Agent 架构(多智能体) 应运而生。这不仅是 Agent 数量的堆叠,更是质量的飞跃。以我们阿里云客户服务领域云小二 Aivis 的实践为例,通过构建 Planner(规划者)、Reasoner(推理者)、Executor(执行者) 等角色协同的架构,我们将复杂的宏观问题拆解为微观的子任务,由不同的 Agent 各司其职。

Multi-Agent 的模式其实有很多种,在 Google 的论文里,主要列为四种:独立的(Independent)、去中心化(Decentralized)、中心化的(Centralized)、混合模式(Hybrid)

  • Independent:多个 Agent 并行处理子任务而不进行沟通,仅在最后汇总结果。
  • Decentralized:一种点对点网状结构,Agent 之间直接沟通以共享信息并达成共识。
  • Centralized:一种"中心辐射"模型,由中央 Orchestrator 将任务分配给工作者并综合他们的输出。
  • Hybrid:结合层级监督和点对点协调,以平衡中央 Orchestrator 的控制与灵活执行。

前面两种是 Agent 可以看做只有 Sub-Agent,后面两种都存在一个中央 Orchestrator 作为主 Agent,这些 Agent 的核心逻辑在于"路由分发 "与"领域隔离":

  • 主 Agent(Orchestrator):扮演"大脑"角色,仅负责意图识别与任务路由,判断"这个问题该交给谁",而无需背负所有领域的知识重担。
  • 子 Agent(Sub-Agent):拥有独立的 Identity 空间,内化特定领域的专业知识(如 ECS 远程诊断、RDS 性能优化等)。每个子 Agent 只需专注于解决某一类垂直场景,其 Prompt 指令更精简,领域知识更聚焦。

这样,Multi-Agent 架构带来了显著的优势

  • 降低单体复杂度:将庞大的领域知识打散,避免了单个 Agent Context Window 的爆炸的可能性。
  • 独立调优:各个子 Agent 可独立迭代。若"ECS 远程诊断"效果不佳,仅需针对性优化这一个子 Agent 的提示词或工具链,而不影响其他模块,极大提升了维护的灵活性。

然而,随着 Agent 数量的增多,比如我们在某个场景中通过一个 Orchestrator 来调度上百个 Agent,新的瓶颈又随之出现,我们会发现其实 Multi-Agent 也并不是银弹,它引入了两个新的挑战:

  • 路由准确率压力 :当 Sub-Agent 数量达到几十上百的时候,主 Agent 面临着巨大的分类决策压力 。它需要在极短的上下文中精准判断用户意图并分发给正确的 Sub-Agent。一旦主 Agent 发生错误路由(Misrouting),后续所有 Sub-Agent 的努力都将南辕北辙。这种"一着不慎,满盘皆输"的风险,随着节点数量的增加也在不停的累积叠加
  • "局部最优"导致的上下文割裂: 这是 Multi-Agent 架构中最隐蔽也最致命的痛点 。由于子 Agent 往往只关注自身任务的局部最优路径 ,缺乏对全局上下文和用户完整意图的感知,极易出现以下现象:
    • 重复执行:比如用户询问"ECS 远程无法连接",Agent A 诊断出"资源负载高";用户追问"为何负载高",Agent B 接手后,因不知晓前文已做过负载检测,可能再次执行相同的查询步骤,造成算力浪费和响应延迟
    • 结论冲突:不同 Agent 基于局部信息得出的结论可能与前文矛盾,导致回答逻辑不自洽,给模型和用户都带来 Confuse。

Multi-Agent 为了解决上下文割裂,是可以考虑让 Agent 之间共享 Context 历史的。但在工程实践中,这又会带来一个 通信带宽的限制问题:

  • 信息有损压缩 :Multi-Agent 在通信的过程中,比如主 Agent 传递给子 Agent 的往往是经过 Summary 或 Rewrite 后的上下文,而非原始对话流。这种 有损传输很可能会导致关键细节的丢失
  • Token 爆炸与耗时增长:若为了保证效果,如果强行让模型扩大通信带宽来传递更多上下文,则会迅速引发新的 Context Window 爆炸,并显著增加 LLM 的生成时间和整体链路耗时

所以,Multi-Agent 架构虽然解决了知识隔离问题,却将复杂度转移到了 Agent 之间的通信带宽与协同 上。如果想要保证 Agent 效果,就需要投入巨大的人力成本去打磨每一个 Agent 节点、通信协议、设计精细的摘要策略,以及处理各种边界 Case。这就是一个典型的 边际效应递减过程:随着 Agent 数量增加,系统整体的稳定性保障难度呈非线性上升,而效果的提升却越来越依赖繁琐的人工干预。

因此,Multi-Agent 也是一把双刃剑:它能通过分工协作突破单点能力的上限,但也引入了复杂的协同损耗。如何在"架构隔离"带来的灵活性与"通信带宽"导致的信息损失之间找到平衡点,就成了构建高质量 Multi-Agent 系统的关键所在。这也是为什么构建一个 Multi-Agent 系统非常困难的原因。

Agent Skills:可复用与渐进式的能力披露

面对 Multi-Agent 架构中复杂的通信损耗、路由误判以及高昂的维护成本,其实很多大厂也在探索 Agent 还有哪些最佳实践,其中 Anthropic 就在《The Complete Guide to Building Skills for Claude》一文中提出了一种全新的思路:不再盲目堆砌 Multi-Agents,而是转向构建基于文件系统的可复用能力包------Agent Skills

这一转变其实是想说明,我们引入 Multi-Agent 的初衷,本质上是为了解决领域知识的隔离与高效注入问题,但是却带来了复杂的上下文管理和通信机制。如果有一种机制能在不牺牲上下文稳定性的前提下实现知识的动态加载,那么沉重的 Mulit-Agent 间通信或许就不再是必须的选项。

Agent Skills 模式其实呢,是回归到了 Single Agent 的架构本体,但赋予了它极强的动态扩展能力

  • 能力封装复用:将复杂的领域知识、操作规范、最佳实践封装成独立的"Skills 文件包"(类似一本本具体的指导手册 Guide Book),使得这个能力可以在不同 Agent 中快速复用。
  • 按需调度:主 Agent 不再需要预加载所有知识,而是在运行过程中,根据当前任务需求,动态地"读取"并加载对应的 Skills 文件。
  • 渐进式披露(Progressive Disclosure) :这确实是 Agent Skills 模式的精髓。Agent 先通过目录概览定位所需技能,再逐步深入阅读具体步骤。如果在执行中发现缺少知识,它可以主动触发下一个 Skills 的加载来补全信息。

这种模式让单个 Agent 具备了"局部专业化"的能力:它在宏观上保持统一的记忆和状态,微观上却能像调用工具一样灵活掌握成千上万种垂直领域的专业知识。

看到这里,你可能会问:"这不就是动态修改 System Prompt 吗?我们之前也尝试过,为什么不行?"

这里有一个比较关键的技术细节差异。早期的很多尝试中,许多人试图直接动态替换 System Prompt 。这种做法很容易导致模型产生认知冲突(Cognitive Dissonance):比如,当 System Prompt 从指令 A 变为指令 B 时,对话历史(History)中保留的却是基于指令 A 生成的交互记录。模型会陷入困惑:"我现在的身份到底是遵循 B,那之前的回答是基于哪个标准?"这种上下文与系统指令的错位,往往导致输出逻辑混乱甚至幻觉。

而 Agent Skills 则巧妙地避开了这个问题:System Prompt 是恒定 的,核心的系统指令,比如人设身份、基础要求保持不变,确保模型认知的统一。而 User Prompt 是动态注入 ,Skills 的内容是以"用户输入"或"工具返回结果"的形式,通过 User Prompt 渐进式地披露给模型。这对模型而言,这就像是用户在对话过程中不断提供新的参考资料(Reference Material),而不是强行改变它的"人设"。模型能够清晰地感知到:"哦,我现在收到了关于 ECS 远程连接排查的新指南,我需要依据这个新信息来回答刚才的问题。"

因此,Agent Skills 架构带来了显著的收益:

  • 低成本的知识注入:真正实现了将海量领域知识"说明书化",模型按需阅读,无需全量预加载,比 Multi-Agent 更轻量,而且也比 RAG 精准。
  • 全局上下文一致性:由于始终由同一个主 Agent 来执行(类似 Multi-Agent 里的 Orchestrator),它完整知晓已执行的步骤、已读取的 Agent Skills 以及当前的任务状态,彻底消除了 Multi-Agent 中的信息割裂和重复劳动问题。
  • 规避 Context 爆炸 :通过 "读一点、做一点、再读一点" 的流式处理,有效控制了瞬时上下文长度。

当然,Skills 模式也不是万能的,非没有缺点。如果 Skills 切换过于频繁,累积的上下文依然可能变长。因此,在实际落地中,通常需要配合上下文压缩滑动窗口的上下文管理策略,及时清理无效的中间过程信息,确保模型始终聚焦于当前最关键的推理路径。

从 Multi-Agent 的"分而治之"到 Agent Skills 的"聚而用之",我们看到了一种 Agent 回归本质的、更加优雅的工程演进。它用文件系统的结构化能力 替代了复杂的网络通信协议 ,用渐进式的信息披露 替代了暴力的全量注入。对于大多数追求高稳定性、低维护成本且需处理海量领域知识的企业级场景而言,这或许才是当下构建 Agent 的最佳实践吧。

Agent Teams:"协同共创"的探索式形态

在 Agent 架构演进的最新前沿,Anthropic 在其实验性文章《Orchestrate Teams of Claude Code Sessions》中提出了一个比较新的概念:Agent Teams 。其主要的核心逻辑和上文中 Multi-Agent 架构里的"独立(Independent)"或者"去中心化(Decentralized)"比较像,但又不完全一样,主要面向解决的是复杂未知问题

要理解 Agent Teams 的价值,首先需要理清楚它与传统 Mulit-Agent 模式的主要区别是什么:

  • 传统 Mulit-Agent: 传统的 Multi-Agent 架构下,Sub-Agent 一般来说更像是独立的"员工"。它们接收指令,独立完成任务,然后仅向主模型(Master)提交一份最终结果报告。在此过程中,Sub-Agent 之间是零交流 的,或者通过 Agent 之间的通信协议进行交流,上下文隔离,彼此不知道对方在做什么,也无法利用对方的中间过程发现。(注:这里说的是大部分的 Multi-Agent 架构下的 Sub-Agent 之间是不交流的,但也不是绝对,比如 Decentralized 的模式下 Agent 之间也是可以设计成点对点交流的)
  • Agent Teams 模式 :这里的 Agent 被组织成了一个真正的"特种小队":
    • 并行探索:多个具有不同 Identity 身份的 Agent 同时启动,针对同一问题从不同角度并发运行
    • 上下文共享 :这是最关键 的变化。所有队员在一个共同的 Task ListShared Context 共享空间中实时写入进度、发现和思考
    • 动态协同:Agent 不仅能感知自己的任务,还能"看到"队友正在做什么。这种机制打破了信息孤岛,实现了真正的团队智能的效果
    • 目标一致:Agent Teams 中的 Agent 共享同一个终极目标(完成用户的主任务),只是过程中的分工有所不同。

那么,Agent Teams 解决了什么问题?在这里,Agent Teams 的设计初衷就并不是为了解决前文提到的"领域知识注入"或"Context Window 爆炸"问题了。它的核心,更多是为了探索高度不确定性的决策难题

当你面对一个完全没有标准答案、甚至不知道从何下手的,比较复杂的问题时:

  • 单一路径的风险:传统的单 Agent 或串行 Multi-Agent 往往只能沿着一条预设或概率最高的路径走到底,一旦方向错误,全盘皆输
  • 多维度的试错:Agent Teams 允许系统动态发起多个子身份,分别尝试不同的解题思路(例如:一个尝试代码修复,一个尝试配置检查,一个尝试日志分析)
  • 最优解涌现:通过并行跑通多条路径,系统可以对比各条路线的中间结果,最终汇聚出效果最好的方案,或者融合多个方案的优点

Agent Teams 其实代表了一种新的工程哲学:在未知面前,并行的多样性优于串行的确定性。 适用于极度复杂的研发调试、开放式创意生成、多因素耦合的故障根因分析等"无明确路线图"的场景。当然,这种模式也有缺点,虽然避免了串行等待的时间损耗,但并行也意味着算力成本的成倍增加。同时,如何设计高效的"共享 Task List"机制,让多个 Agent 在读写共享状态时不产生冲突、不陷入死循环,也是落地的一个关键难点。当然,Agent Teams 也不是完全都是走并行运行的,主 Agent 会根据任务要求会进行分解,从而判断哪些子任务需要并行,哪些子任务是有前后串行依赖关系的,但是这种并行化的探索以及上下文的共享机制的确带来了不一样的质变。

如何科学的构建 Agent 系统

在 Agent 落地的浪潮中,前几年大家真的都是在"摸着石头过河",基本上都是依赖直觉经验来设计架构。一方面是因为 Agent 架构演化过程太快,没有太多精力去深入分析;另一方面就是基于 LLM 的系统和项目相比传统软件项目开发来说是具有极强的不确定性,但这样的架构选型方式依然非常不科学,因此,追求如何科学的构建 Agent 系统和架构选型,仍然是现在工业界和学术界讨论的核心话题。

Google DeepMind 前段时间发表的论文《Towards a Science of Scaling Agent Systems》,翻译成中文就是"迈向智能体系统的科学"。这篇文章开启了科学设计 Agent 系统架构的新篇章,也给我们提供了一套基于大量 Benchmark 的实证方法论。不过这篇论文在撰写的时候,肯定是没有考虑到 Anthropic 后来会发布 Agent Skills 和 Agent Teams 机制的,但其对于 Single Agent 和 Multi-Agent 的讨论也已经提供了很多科学的、建设性的建议。

这篇论文通过对比了 Single Agent 和四种 Multi-Agent 架构,也就是上文所说的 IndependentDecentralized、Centralized 以及 Hybrid 共五种主流架构,得出了若干反直觉 却极具指导意义的结论。

结合前文我们对 Single Agent、Agent Skills、Multi-Agent 及 Agent Teams 的探讨,我们可以参考这些结论来校准我们的选型策略:

模型越强效果越好,但并非 Agent 越多效果就越好

Google 为了量化模型能力对 Agent 性能的影响,在 OpenAI GPT、Google Gemini 和 Anthropic Claude 上评估了 Single Agent 和四种 Multi-Agent 架构。结果可以看到,模型能力与架构之间复杂的关系。通常来说,上了越强大的模型,Agent 的效果就越好,Agent 的能力与模型能力基本上呈现正相关。

但 Mulit-Agent 并不是万能的解决方案,有时候上了 Multi-Agent 确实是显著提升了效果,有时候也会意外地降低效果。所以并不是"无脑"堆 Agent 数量,上 Multi-Agent 架构,就能明显的提高模型效果。

尽量降低沟通成本和通信带宽

Google 的实验发现:在固定 Token 预算下,频繁的 Agent 间沟通会显著降低系统整体效果。

  • 原因:沟通本身会消耗宝贵的 Context Window,挤占用于推理和知识注入的空间。
  • 启示 :这再次印证了我们在"Agent Skills"部分的观点------能由单个 Agent 内部消化的逻辑,尽量不要拆分成多轮对话。过度的 Agent 之间通信往往导致信息噪声淹没核心指令。除非必要,否则应追求 低通信带宽 甚至 零通信的架构。

单 Agent 的 45%阈值法则

实验数据表明,当单个 Agent 的任务成功率达到 45% 以上时,单纯增加 Agent 数量带来的收益边际递减,甚至为负。

  • 核心价值:盲目增加 Multi-Agent 的数量并不一定能"提升上限"。
  • 警示:如果你的单智能体基线已经超过 45%,盲目增加复杂的 Multi-Agent 协同机制,反而会降低整体表现,带来负向收益,应该简化架构。

错误放大效应

这是最令人警醒的数据:纯粹的 独立架构(Independent)可能将错误放大 17.2 倍 ,而引入中心化机制 后,错误放大就可控制在 4.4 倍

  • 解读:没有监管的"群策群力"极易演变成"集体幻觉"。如果缺乏一个强有力的 Manager 进行校验和纠偏,多个 Agent 同时犯错并相互印证的概率极高。
  • 结论 :因此,在使用 Agent Teams 进行并行探索时,也必须配套强大的中心化决策机制,否则稳定性是无从谈起的。

场景决定架构:没有万能钥匙

Google 在不同任务的 Benchmark 上跑了多种 Agent 架构,结论:任务类型决定最佳架构

  • 规划类任务(PlanCraft) :Agent Planning 任务。这类任务线逻辑性强、工具依赖少,Single Agent往往是最高效的选择,避免了不必要的工具、子 Agent 调度开销。
  • 工具使用类任务(WorkBench / BrowseComp-Plus) :包括工具规划、工具选择、浏览器获取信息。这类任务天然适合去中心化的 Multi-Agent 架构, 才能充分发挥效率优势。
  • 垂类场景任务(Finance Agent) :如金融交易。这类场景对错误零容忍,中心化协作效果最佳。它能在保持一定并行度的同时,通过中心化 Agent 严格把控每一步操作,平衡了效率与安全。

Agent 架构选型之道

再来回顾我们探讨的四种 Agent 架构演进路径:"Single Agent → Multi-Agent → Agent Skills → Agent Teams"。 它们并非相互替代的关系,而是针对不同复杂度场景的解决方案。在实际落地中,如何做出最合理的技术选型?基于我们的实践经验,再结合 Anthropic、Google 的几篇文章,我总结出一套"由简入繁、按需升级"的选型方法论:

Agent 架构 适用场景 选型建议
Single Agent 简单场景,首选方案• 业务逻辑清晰、知识体量适中• 能够完整注入到上下文窗口内 快速搭建、延迟最低、成本最优。在知识边界明确的场景下,单 Agent 的原生推理能力往往优于任何复杂的拆解架构。只要你的领域知识能"装得下",请毫不犹豫地选择单 Agent 架构。不要为了追求架构的"先进性"而过度设计。
Agent Skill 中复杂度,通用领域解法• 领域知识海量,无法一次注入• 业务逻辑相对标准• 不是过于复杂的动态规划 平衡了知识容量与上下文稳定性 。当 Single Agent 遭遇知识瓶颈时,优先尝试 Agent Skills 模式 。重点在于设计合理的 Skills 文件结构(如目录索引、分步指南),让模型学会"查字典"而非"背全书"。这是目前解决大部分企业级领域知识问题的 性价比最高的方案。
Multi-Agent 高复杂度,专家级挑战• 任务非常复杂,严格职责隔离• 能做到精细化的流程控制• 对最终效果的上限有极高要求 理论上限比较高 。通过专业的精细化调优(路由策略、通信协议、子 Agent 独立训练),可以构建出超越单点能力的效果。但开发难度较大、维护成本较高 。容易出现路由误判、上下文割裂、死循环等问题。谨慎使用。只有当上面两种方案确实无法满足需求,并且你拥有专业的 Agent 架构能力,愿意投入大量人力进行长期打磨时,才考虑此方案。对于大多数普通业务场景,Multi-Agent 的 ROI 往往不如预期。
Agent Teams 高复杂度,未知领域探索• 完全未知、无标准答案• 开放性难题,需探索多种方案 并行探索、多维试错 。利用多个 Agent 同时从不同角度发起进攻,通过共享上下文实现"群策群力",最终汇聚出最优解。可以将其视为一种 特殊场景下的增强模式。它不用于解决常规的知识问答或流程执行,而是专门用于攻克那些连人类专家都需要反复尝试才能解决的"硬骨头"。

架构选型建议

我认为理想的 Agent 建设路径,应当遵循 "奥卡姆剃刀" 原则 ------ 如无必要,勿增实体。把 Agent 架构选型的优先级路径列出来,基本上来看就是下面的排序:

  • P0: 能用 Single Agent 解决的,绝不上复杂架构。
  • P1: 遇到知识瓶颈,优先引入 Agent Skills 机制,通过动态渐进式加载 Skills 来扩展能力边界。
  • P2: 仅在上述方案失效,且对效果上限有极致追求时,再谨慎启动 Multi-Agent 架构,并做好长期调优的准备。
  • P3: 针对高度不确定的探索性任务,灵活叠加 Agent Teams 的并行协作能力。

Agent 技术架构没有绝对的"最好",只有"最合适"。希望这套选型思路能帮助大家在 Agent 落地的过程中,少走弯路,以更低的成本构建出更稳健、更智能的企业级、可落地的 Agent。

总结

随着 Agent 技术的不断成熟和发展,Agent 的建设正在从 "凭感觉调优" 转向 "系统工程" 。无论是 Google 论文里的实验数据,还是 Anthropic 博客里的最佳实践,再结合我们在云小二 Aivis 中走过的踩坑经验,都指向同一个真理:Agent 架构的复杂度必须与问题的复杂度相匹配。

Manus AI 的官网也一直有句口号,叫做 "Less structure, More intelligence."(更少的结构,更多的智能) ,如果盲目追求 Multi-Agent 的"高大上",往往会陷入通信泥潭和错误放大的陷阱;而如果在应该并行的时候又固守单点 Agent,又会失去效率的红利。只有基于场景特征,科学地权衡 Agent 的架构复杂度、成本、错误控制与并行收益,才能构建出真正健壮、高可用、可落地并且更加智能的 Agent 系统。

本文也是我个人技术探索的心路历程,一家之言、经验之谈,行文仓促,如有错误还请各位批评指正!

相关推荐
该用户已不存在1 小时前
除了OpenClaw还有谁?五款安全且高效的开源AI智能体
人工智能·aigc·ai编程
机器之心1 小时前
AI发布首个全球科学家社区爆火,硅谷投资圈:科技研究领域的「谷歌地图」来了!
人工智能·openai
ECH00O002 小时前
06-Attention/注意力机制:AI的"聚光灯"
人工智能
机器之心2 小时前
1美元Token撬动4800美元收益!AI挑战百万美元级基准,最赚钱的Agent出现了
人工智能·openai
ECH00O002 小时前
05-Transformer:AI界的"变形金刚"
人工智能
非优秀程序员2 小时前
推荐五个OPENclaw 可以应用的场景,让你明白他能干怎么
人工智能·架构·浏览器
孟祥_成都2 小时前
Cursor 要被淘汰了?开发者最应该关注的 10 个信号
前端·人工智能
非优秀程序员2 小时前
OpenClaw 2026 最新功能全解析:Gemini、PDF 原生到安全强化完整拆解
人工智能·开源·产品经理
非优秀程序员3 小时前
OpenClaw 教学:25 个工具 + 53 个技能完整指南
人工智能·开源·全栈