我把 Karpathy 的 AutoResearch 搬到了软件开发领域,效果炸了

导读

本项目成功将Karpathy在AI研究领域的AutoResearch方法迁移到软件开发领域,通过多AI Agent交叉审核、5维度量化评分和反馈驱动迭代三大改进,构建了一个全自动的软件开发系统。该系统以program.md为规则核心,实现从GitHub Issue识别、代码实现、测试验证到审核合并的完整闭环,仅在少数情况下需要人工介入。实践表明,该系统能在约10分钟内自主完成中等复杂度的开发任务,并达到9.0/10的代码质量标准,显著提升了开发效率并降低了人力成本。

像 Karpathy 训模型一样开发软件。

1 项目介绍

项目地址:

github.com/smallnest/a...

最近做了优化:

  • 将此工具抽取成独立的项目

  • 代码进行了重构,增加了更多的控制

  • 通用化, 可以应用于任意的github项目

  • 增加了opencode,可以实现1个到3个任意组合的Coding Agent交叉审核和代码实现

2 什么是 Karpathy AutoResearch?

2026 年 3 月,AI 领域知名研究者 Andrej Karpathy 发布了 autoresearch 项目,短短几天内就在 GitHub 收获 5 万+ 星标,Karpathy 发布的介绍视频播放量达 860 万次。这是一款开源 Python 工具,代码量约 600 行。

核心思想是:把 AI 研究本身也交给 AI 来自主完成。

具体做法极简而优雅:给 AI Agent 一个真实的小型 LLM 训练环境(单 GPU,5 分钟训练预算),让它自主修改 train.py、跑实验、检查结果------只有 val loss(验证集损失)改善时才 commit,否则 git revert 回滚 ,然后继续下一轮。人类只需维护一份 program.md(相当于给 Agent 的「研究章程」),剩下的全部交给 Agent 晚上自己跑。

这个项目的精髓在于三点:① 量化目标 (val loss 是唯一判断标准)、② 自主循环 (Agent 不需要人类每轮介入)、③ 只保留改进(退化就回滚,绝不将就)。预计每小时可完成约 12 次实验,一觉醒来就能收获上百轮自动优化的结果。

Andrej Karpathy的这套思路在 ML 研究领域验证有效后,我开始思考:软件开发领域能否复刻同样的魔法? 把"修改 train.py → 跑 5 分钟实验 → val loss 改善才保留",替换成"实现 GitHub Issue → 跑测试 → 多维评分达标才合并"------这就是本项目的起点。实测下来,10 分钟完成一个中等复杂 Issue,全程零人工干预,最终评分 9.0/10。

Issue#21自动化实现的回放地址:

asciinema.org/a/896260

这个回放解决的Issue#21:

github.com/smallnest/i...

前几天正好看到花叔的写的一个SKill:达尔文.skill, 殊途同归------ 他在Skill开发 领域同样应用AutoResearch方法实现对Skill技能的优化。后来花叔把这个经验总结到他的另外一个Skill项目上:auto-optimize-skill。

3 为什么做这个?

传统的"人类写代码 → 运行测试 → 修复问题"流程,在 GitHub Issues 有几十上百个待处理项时不再可行。

即使用 Claude Code / Codex 等 AI 编程工具(所谓的 vibe coding),你仍然需要:

  • 一轮一轮地 chat 交互,告诉 AI 做什么

  • 人工检查输出、发现问题、再告诉 AI 改什么

  • 生成的代码是一堆『屎山💩

  • 人始终被绑在循环里,离开就不转了

2025 年底流行的 Ralph Wiggum 方法(while true; do cat PROMPT.md | claude; done)更进一步:写好 SPEC,让单 Agent 在循环里自主干活。解决了人的 chat 交互问题,但本质是单个 Agent 的自我循环------自己写、自己测、自己改,没有外部审核视角,质量全靠测试 backpressure 和 prompt 工夫。

2026 年 3 月 Karpathy 发布了 autoresearch,把同样的循环思路用到了 ML 研究领域:写一个 program.md 定义目标和约束,AI 自主修改训练代码、跑 5 分钟快速实验,只有 val loss 改善时才 commit,否则 git revert。核心创新是把"什么是改进"量化成了一个明确的 metric。

本项目的 Autoresearch 在 Karpathy 思想基础上做了三个关键改进:

  1. 多 Agent 交叉审核,替代单 Agent 自审。Ralph Wiggum 和 Karpathy AutoResearch 都是单 Agent 自己改自己评,缺少外部视角。本项目让 Codex 和 Claude 轮流担任实现者和审核者:A 写完 B 审,B 写完 A 审。不同模型有不同的盲区和强项,交叉审核能发现单 Agent 发现不了的问题。实践证明,单 Agent 的效果远不如双 Agent 交叉审核。本项目创造性地使用两个 Agent 轮流审核和开发,极大地提高了代码质量。

2. 5 维度加权评分,替代单一 metric。 Karpathy 用 val loss 一个数字判断好坏,ML 场景足够用。但软件工程的质量是多维的------功能正确、测试充分、代码规范、安全无漏洞、性能没坑。本项目用 5 维度加权评分(正确性 35% + 测试 25% + 代码质量 20% + 安全 10% + 性能 10%),总分 ≥ 9.0 才算通过,把"代码好不好"从主观判断变成量化指标。

3. 审核反馈驱动下一轮实现,替代盲循环。 Ralph Wiggum 的每轮循环是独立的------新上下文重新开始,不记得上轮犯了什么错。本项目的审核反馈直接传入下一轮 Agent 的提示词,Agent 看到上一轮的具体问题后针对性改进,而不是漫无目的地重试。

最终效果:人只提供 Issue 号,剩下的全自动------自动实现、自动测试、自动审核、自动迭代、评分达标后自动 PR + 合并。

与同类项目对比

本节对比三个将"自主迭代循环"思想应用到不同领域的项目:Karpathy 的 AutoResearch 用于 ML 研究,本项目用于通用软件开发,达尔文.skill 用于 Skill 优化。三者核心机制相同------量化目标 + 自动迭代 + 只保留改进------但在被优化的资产、质量保证机制、人的参与程度等方面做出了不同选择。

从对比可以看出:

  • 量化目标是共通的核心。三个项目都把"什么是改进"定义成了可量化的指标------val loss、审核评分、8 维总分------而不是依赖人的主观判断。

  • 质量保证机制各有侧重。Karpathy 和达尔文.skill 用 git revert 做硬性保护(退化就回滚),本项目用多 Agent 交叉审核做软性保护(审核反馈驱动改进,并没有做回退机制,原因在于ClaudeCode/Codex自己足够智能决定回退还是改进上一轮的变动)。

  • 人的参与程度反映了领域特征。ML 研究的 metric 足够客观,可以全自主;Skill 的好坏需要人的判断,所以每轮暂停确认;软件开发介于两者之间,大部分自动但保留关键节点介入能力。

4 系统架构

以下是这个项目的架构图:

4.1 六条核心原则

这六条原则是整个系统的设计基石。原则 01 定义了规则的来源和边界,原则 02-05 构成了多 Agent 对抗的质量保证链(谁来做、怎么评、怎么改进),原则 06 确保整个过程可追溯。它们相互配合:没有 program.md 的约束,Agent 会越权;没有多 Agent 对抗,单 Agent 自审会有盲区;没有量化门槛,质量判断就回到主观经验;没有反馈驱动,迭代就是盲循环;没有全量记录,出了问题无法回溯。

4.2 审核评分体系

审核评分是 AutoResearch 的量化核心------它把"这段代码好不好"从一个模糊的主观判断,变成一个 5 维度加权计算出的精确分数。这个分数决定了迭代是继续还是停止:≥ 9.0 自动提交 PR,< 9.0 审核反馈驱动下一轮改进。维度和权重的分配反映了软件工程的质量优先级:功能正确最重要(35%),测试其次(25%),代码质量(20%),安全和性能各占 10%。

总分 10 分,5 维度加权:

各维度得分:无问题 10 分 / 建议改进 9 分 / 一般问题 7 分 / 严重问题 4 分 / 致命问题 1 分

达标线:9.0/10

4.3 优化循环:4 个阶段

整个流程分为 4 个阶段。

  1. Phase 1 做环境准备(一次性,几秒钟)。

  2. Phase 2 是核心迭代循环------多 Agent 轮流审核和实现,测试验证,评分判定,这个阶段完全自主运行,不需要人介入。

  3. Phase 3 在评分达标后自动触发,完成 commit + PR + 合并。

  4. Phase 4 做结果归档,把迭代过程写入日志供回溯。其中 Phase 2 占了几乎全部时间,也是系统价值的核心所在。

    Phase 1: 环境准备

迭代示例:

yaml 复制代码
迭代 1: Codex 审核 → Codex 实现 → 测试 → Claude 审核(5.0) → Claude 实现

终止条件:在以下情况下,任务会终止

4.4 核心文件

复制代码
autoresearch/

4.5 Issue 选择策略

排除规则:以下 Issue 不处理:wontfix / duplicate / invalid / blocked / needs discussion / on hold / external,标题含 [WIP]``[DRAFT],正文含 DO NOT IMPLEMENT,已有 PR 关联。

优先级计算:

scss 复制代码
分数 = 基础权重(15) + 标签权重 + 类型权重 + 时间因子
  • 标签权重:critical(100) > high(50) > medium(20) > low(10)

  • 类型权重:bug(30) > feature(20) > refactor(10) > test(5) > docs(3)

  • 时间因子:新 Issue +10 / 陈年 Issue +15 / 近期更新 +5

复杂度评估:

4.6 program.md 要点

权限边界:

复制代码
Agent 可以:

代码规范(Go):

css 复制代码
1. 遵循 Effective Go + Go Code Review Comments

测试规范:

markdown 复制代码
1. 所有新功能必须有单元测试

4.7 错误处理

退火重试: API 调用失败时使用指数退避 + 随机抖动(delay = 2^retry * base_delay + random_jitter,最大等待 60 秒,最多重试 10 次)。

连续失败保护: Agent 执行失败 → 连续失败计数 +1,连续失败 ≥ 3 次 → 停止运行,记录日志。

测试失败: 测试失败 → 反馈"测试失败" → 下一轮 Agent 针对性修复。

4.8 运行结果

results.tsv 格式:

lua 复制代码
timestamp   issue_number  issue_title  status     iterations  tests_passed  score  branch_name

状态定义:

5 快速开始

5.1 前置条件

因为需要自动化处理 GitHub 的 Issue,所以需要安装 GitHub CLI。

因为通过 acpx 操控 Claude Code 和 Codex,所以需要安装 acpx 工具。

因为本项目使用 Go 语言开发,所以需要安装 Go 环境。

bash 复制代码
# GitHub CLI (gh)

5.2 运行

调用run.sh脚本,直接输入issue号即可运行。

bash 复制代码
# 进入你要处理的 GitHub 项目目录

脚本会自动:检查环境 → 获取 Issue → 创建分支 → 轮流 Codex/Claude 实现+审核 → 达标后自动 PR + 合并

5.3 自定义配置

在项目根目录创建 .autoresearch/ 目录可覆盖默认配置:

复制代码
.autoresearch/

6 实战案例

以下是我实际开发真实案例,特别的是 Issue #21, 我专门使用 asciinema 工具记录了这个issue自动开发的全过程。

Issue #21: feat: enhance job execution with agent selection and timeout

我只需提供一个Issue号,剩下的就由 autoresearch 脚本自动完成。

arduino 复制代码
./docs/autoresearch/run.sh 21

默认设置最多执行 42 轮迭代,但通常几轮之后代码质量便能达到标准。下面是 Issue #21 的迭代过程,大约 10 分钟就完成了开发,总共迭代了 3 轮。

你可以点击这个回放链接 查看完整过程:

(回放链接:

asciinema.org/a/896260)

关键日志:

复制代码
复杂度:中等(涉及 Job 结构体扩展、超时控制、API 增强)

Issue #15: feat: define source-of-truth event protocol

实现 Issue #15 时,仅迭代两轮代码质量便达到了标准,关键日志如下:

scss 复制代码
迭代 1 (Codex):  评分 5.0  → 反馈:设计方向问题

Issue #6: feat: add web UI for sessions

实现 Issue #6 的时候关键日志,就迭代了5轮代码质量就达到了标准:

复制代码
复杂度:高(涉及多个模块、需要设计决策)

7 最佳实践

  1. 从小 Issue 开始:先用简单的 Issue (bug fix) 测试流程

  2. 保持 program.md 更新:根据运行情况调整规则和约束。一旦你在使用中觉得效果不够理想,比如评分机制不符合预期,就可以修改这个文件。

  3. 关注评分趋势 :每次迭代的评分记录在 log.md 中,观察是否稳步上升

  4. 利用多 Agent 对抗:Codex/Claude 轮流实现+审核,交叉验证减少盲区

  5. 退火重试:API 不稳定时脚本自动退避重试,无需人工干预

8 设计灵感

  • karpathy/autoresearch --- 核心循环:只保留可测量的改进,其余全部回滚

  • acpx --- Agent 控制工具,让 Codex/Claude 在命令行中协作

  • imclaw --- 本项目和autoresearch文件github.com/smallnest/i...

相关推荐
嵌入式小企鹅2 小时前
国产大模型与芯片加速融合,RISC-V生态多点开花,AI编程工具迈入自动化新纪元
人工智能·学习·ai·嵌入式·算力·risc-v·半导体
数智大号2 小时前
聚焦 AI 音频创新 ,Shure 亮相 InfoComm 全场景解决方案破解协作难题
人工智能
做个文艺程序员2 小时前
Spring Boot 项目集成 OpenClAW【OpenClAW + Spring Boot 系列 第1篇】
java·人工智能·spring boot·开源
天一生水water2 小时前
CNN循环神经网络关键知识点
人工智能·rnn·cnn
一个喜欢分享的PHP技术2 小时前
AI在龙虾中,配置标准版mcp的方法
人工智能
醇氧2 小时前
Hermes Agent 学习(安装部署详细教程)
人工智能·python·学习·阿里云·ai·云计算
扬帆破浪2 小时前
WPS 文字免费开源AI插件:察元 AI 文档助手如何把大模型接进日常写作
人工智能·开源·wps
麦哲思科技任甲林2 小时前
AI编程的三大痛点及其工作模式
人工智能·ai编程·工作模式·自以为是·忘性大
Microsoft Word2 小时前
零代码落地Rokid AI Glasses应用:个性化推荐旅游智能体搭建指南
人工智能·旅游