像 Tech Lead 一样管理 AI Agent:一条命令,并行执行,交叉验证

项目介绍:github.com/mco-org/mco...

你电脑上装了几个 AI 编程 Agent?

Claude Code、Codex、Gemini CLI、OpenCode、Qwen ------ 这些工具我都装了,但每次只用其中一个。用 Claude 写完一段代码,想让 Gemini或者Codex 再看看?得手动切过去,重新粘贴 prompt,等它跑完,再自己对比,审查的结果再粘贴回去,就非常麻烦。

为什么不让它们同时干活呢?

于是我做了 MCO(Multi-CLI Orchestrator)。一条命令,主Agent同时调度多个 AI 编程 Agent,并行执行,各自交付,结果汇总到一份输出里。

先看一个真实例子

我给 4 个 Agent 布置了同一个任务:「数一下这个仓库里有多少个 .py 文件」。

Claude、Codex、OpenCode 都数出了 19 个。Gemini 这次翻车了,只数出 17 个 ------ 漏掉了 adapters/ 子目录里的 parsing.pyshim.py 两个文件。

这只是一个数文件的简单任务,就已经出现了结果分歧。换成架构分析、代码总结、方案评估这类开放性任务,差异只会更大。

再来一个分析类任务:我把 5 个 Agent 全部拉进来,让它们同时分析 MCO 自己代码里的 retry.py,找出边界问题和潜在 Bug:

这次 5 家高度收敛,但各有侧重:

  • 4/5 的 Agent 都发现了retry_index <= 0 无校验、延迟无上限可能指数爆炸
  • 只有 Qwen 指出了backoff_multiplier 为负数时,会产生「正负交替延迟」这个奇特行为
  • Claude 是唯一给出正向评价的 :主动说明 frozen=True 的设计是对的,有来有往

一个 Agent 的输出,你只能选择信或不信。多个 Agent 的输出,你可以交叉验证。

MCO 是什么

MCO 是一个中立的 AI 编程 Agent 编排层。它不绑定任何厂商,不替代任何 Agent,只做一件事:

把你的任务并行分发给多个 Agent,收集结果,汇总输出。

你可以把它理解成一个 Tech Lead:

  1. 布置任务 ------ 你给 MCO 一个 prompt 和一组 Agent,就像给团队成员布置同一个任务
  2. 并行执行 ------ 所有 Agent 同时跑,总耗时 ≈ 最慢的那个,不是累加
  3. 收集结果 ------ 每个 Agent 独立交付自己的输出,MCO 汇总到一份结构化 JSON
  4. 你来判断 ------ 多份独立结果摆在面前,交叉对比,择优采纳
css 复制代码
You (Tech Lead)
     │
     ▼
  mco run / mco review
     │
     ├─→ Claude Code  ──┐
     ├─→ Codex CLI      │
     ├─→ Gemini CLI     ├─→ 汇总 → 输出
     ├─→ OpenCode       │
     └─→ Qwen Code   ───┘

安装和上手

css 复制代码
npm i -g @tt-a1i/mco

或者从源码:

bash 复制代码
git clone https://github.com/mco-org/mco.git
cd mco && python3 -m pip install -e .

先用 mco doctor 检查一下你的环境:

复制代码
mco doctor

它会告诉你哪些 Agent 已安装、版本多少、认证是否正常。都 OK 之后,跑你的第一次多 Agent 任务:

css 复制代码
mco run \
  --repo . \
  --prompt "分析这个项目的整体架构,列出模块职责和依赖关系" \
  --providers claude,codex,gemini

就这么简单。一条命令,3 个 Agent 同时分析,各自输出自己的理解。你拿到 3 份独立的架构报告,对比着看。

并行执行:核心能力

mco run 是 MCO 的核心模式。你给一个 prompt,选几个 Agent,它们同时跑,各自独立完成,你来对比验证。

关键点:额外开销几乎为零。 总耗时约等于最慢的那个 Agent,不是所有 Agent 的执行时间加起来。跑 1 个 Agent 要 30 秒,跑 5 个也大概 30 秒。

适合什么场景?

任何你想要多个独立视角的任务:

架构分析 ------ 3 个 Agent 各自分析同一个项目架构,你对比谁的理解更准确、谁漏了模块、谁的建议更实用:

css 复制代码
mco run \
  --repo . \
  --prompt "分析这个项目的整体架构,列出核心模块、职责和依赖关系" \
  --providers claude,gemini,qwen

方案评估 ------ 让多个 Agent 独立评估同一个技术决策,收集不同立场的分析:

css 复制代码
mco run \
  --repo . \
  --prompt "评估把这个项目从 Flask 迁移到 FastAPI 的可行性和风险" \
  --providers claude,codex,gemini

代码总结 ------ 多个 Agent 各自总结同一个模块,对比理解深度:

css 复制代码
mco run \
  --repo . \
  --prompt "总结 runtime/ 目录下的核心逻辑和数据流" \
  --providers claude,codex,opencode

文档生成 ------ 多份草稿择优合并:

css 复制代码
mco run \
  --repo . \
  --prompt "为这个项目的 API 模块生成开发者文档" \
  --providers claude,gemini,qwen

这就像给 3 个工程师布置同一个调研任务:你不需要他们协作,你需要的是多个独立视角,然后自己做判断。

为什么不只用一个 Agent?

这不是理论问题。从上面两次真实测试里就能看出来:

测试任务 翻车的 Agent 翻车原因 独家发现
统计 .py 文件数 Gemini(17 vs 19) 漏扫子目录 ---
分析 retry.py 边界问题 无明显失误 --- Qwen 发现负数乘数 Bug

不同 Agent 确实擅长不同的事:

  • Claude ------ 对代码结构和逻辑流的把握很强,会主动做正负两方面评价
  • Codex ------ 执行指令精准,简洁干脆,不废话
  • Gemini ------ 架构层面常有独到视角,但事实类任务偶尔漏扫(如数文件例子)
  • OpenCode ------ 覆盖全面,系统性强,自动切换中文输出
  • Qwen ------ 有时会发现其他 Agent 都没注意到的角落问题

如果你只用了其中某一个,Qwen 那条独家发现就永远不会出现在你面前;Gemini 漏掉的那两个文件你也永远不会知道。

3-5 个 Agent 并行跑同一个任务,你拿到的是视角的并集,不是某个 Agent 的单一判断。

延伸:结构化代码审查

并行执行的思路自然延伸到代码审查。mco review 是 MCO 的审查模式,在并行执行的基础上增加了:

  • 结构化输出 ------ 每个 Agent 的发现被标准化为 findings(严重级别、分类、证据、建议)
  • 跨 Agent 去重 ------ 多个 Agent 发现同一个 Bug 时自动合并,保留 detected_by 来源追踪
  • 共识总结 ------ --synthesize 让一个 Agent 汇总所有结果:共识、分歧、下一步建议
  • CI/CD 集成 ------ --format sarif 对接 GitHub Code Scanning,--format markdown-pr 生成 PR 评论
css 复制代码
mco review \
  --repo . \
  --prompt "审查这个仓库的安全漏洞和高风险 Bug" \
  --providers claude,codex,qwen \
  --format markdown-pr

审查场景下,多 Agent 的价值更明显 ------ 一个 Agent 发现竞态条件但漏掉 SQL 注入,另一个正好相反,第三个找到了前两个都没注意到的内存泄漏。MCO 把所有发现汇总去重,你拿到的是全覆盖的审查报告。

实际使用场景汇总

场景 命令 效果
架构分析 mco run --providers claude,gemini,qwen 3 份独立分析报告,对比择优
方案评估 mco run --prompt "评估迁移到 FastAPI 的影响" 多视角风险评估
代码总结 mco run --prompt "总结核心模块逻辑" 多份总结交叉验证
文档生成 mco run --prompt "生成 API 文档" 多份草稿择优合并
PR 代码审查 mco review --format markdown-pr 多 Agent 并行审查,生成 PR 评论
CI 安全扫描 mco review --format sarif 结果上传 GitHub Code Scanning
共识决策 mco review --synthesize 汇总共识、标注分歧
环境健康检查 mco doctor --json 一键确认所有 Agent 就绪

跟 OpenClaw 等工具配合使用

如果你在用 OpenClaw,它可以直接调用 MCO 作为多 Agent 编排后端:

"用 mco 让 Claude、Codex 和 Gemini 同时分析这个项目的架构,汇总结果。"

OpenClaw 读 mco -h,自己学会 CLI 参数,自动编排整个流程。

同样适用于 Claude Code、Cursor、Trae、Copilot、Windsurf ------ 任何能跑 shell 命令的 Agent 都能调度 MCO。这意味着你可以让 Agent 调度 Agent:Claude Code 通过 MCO 分发任务给 Codex 和 Gemini,拿到结果后自己做总结。

核心特性一览

  • 5 个内置 Provider ------ Claude Code、Codex、Gemini CLI、OpenCode、Qwen
  • 并行扇出 ------ wait-all 语义,一个失败不阻塞其他
  • 双模式 ------ mco run 通用并行执行,mco review 结构化代码审查
  • 跨 Agent 发现去重 ------ 相同 Bug 多个 Agent 发现时自动合并,保留来源追踪
  • LLM 共识总结 ------ --synthesize 输出共识/分歧/建议
  • 多格式输出 ------ JSON(默认)、SARIF(CI)、Markdown-PR(PR 评论)
  • 环境健康检查 ------ mco doctor 一键诊断
  • Token 用量追踪 ------ --include-token-usage 可选查看各 Agent 消耗
  • 进度驱动超时 ------ 不设死超时,只在 Agent 长时间无输出时才取消
  • 可扩展适配器 ------ 添加新 Agent 只需实现 3 个钩子
  • 零配置 ------ 装完直接跑,所有参数都有合理默认值

MCO 不试图替代任何 Agent,它只是让你能同时用上所有 Agent。就像开会的时候,你不会只听一个人的意见 ------ 你让所有人都发言,然后做综合判断。

mco run 分配工作,mco review 审查工作 ------ 你是 Tech Lead,Agent 是你的团队。

项目开源,MIT 协议:github.com/mco-org/mco

css 复制代码
npm i -g @tt-a1i/mco && mco doctor

如果觉得有用,欢迎 Star 和反馈 issue。也欢迎贡献新的 Agent 适配器 ------ 只要你的 Agent 有 CLI,就能接入 MCO。

相关推荐
小白小白啦2 小时前
openclaw本地服务器部署
aigc
树獭叔叔3 小时前
06-大模型如何"学习":从梯度下降到AdamW优化器
后端·aigc·openai
王小酱3 小时前
Everything Claude Code 速查指南
openai·ai编程·aiops
JackLi4 小时前
最新大模型及智能体开发平台全套部署方案
aigc·ai编程
warm3snow5 小时前
AI 核心技能系列:12 篇文章带你系统掌握大模型岗位必备技能
ai·transformer·agent·skill·mcp·fine-tunning
货拉拉技术5 小时前
如何用 AI 做业务级 Code Review
前端·agent·前端工程化
用户5191495848457 小时前
Citrix NetScaler内存泄漏漏洞利用工具 (CVE-2025-5777)
人工智能·aigc
RoyLin7 小时前
20 行代码,构建 Claude Code 核心能力
架构·agent
FinClip9 小时前
财富管理奇点已到:AI让投资顾问以一当百
openai