我让 AI 当了 24 小时全年无休的“毒舌考官”

公司开了个仓库,前端团队从 3 人扩到 12 人,我定规矩:所有 PR 至少 1 个 Review 才能合。好的,大家开始互相送"LGTM ⭐"了------一眼都没看,点完就跑。线上挂的时候谁也背锅,群消息全是"不是我"。我一气之下拉了 AI 进来当永久 Code Reviewer,0 薪水 7x24 小时在线,什么混子、什么歪代码,全部兜住。

前言

PR 审查这件事,经历过的都懂:平时没人看,一出事全是"我早说了"。你认真看了 500 行 diff 给出了 3 页修改意见,人家回复一个"done",你都不知道改没改对。

Code Review 的最大矛盾是什么?要快,就水;要细,就慢。AI 时代,你猜怎么着?这活儿最适合交给机器人。不需要情商,直接喷;不需要开会,秒回;不需要记住项目规范,每次都按最新标准来。

今天我来实操:用 AI 在自己的 PR 里自动跑 Code Review,准确到几行代码,还能直接输出"P0 严重"、"P1 重要"、"P2 建议"的结构化报告。准备接受 AI 对你代码的无差别吐槽了吗?

一、AI 当 reviewer 会"胡说八道"吗?

你先不用管它会胡说八道。你只要让它遵循的原则是 "如果这条建议可能不对,就闭嘴"

打个比方,你让人工 review:"这个 useEffect 漏了清理函数" → 这是对的。"你这里最好改用 useMemo" → 有时是对的,但也可能是在显摆。

AI 也一样,你调校它的方式不是"提示词",而是给它喂规则

来看看我用了大半年的一套 AI Code Review 命令行工具能"喷"什么:

  • security:检测登录态是否在前端 localStorage 明文存密码、有没有 XSS 注入风险、SQL 注入隐患。
  • performance :看你有没有在 React 组件里直接写 const style = { margin: 10 }(每次渲染新建对象)。
  • accessibility:img 缺 alt、button 缺类型、颜色对比度稀烂。
  • code quality :文件超过 500 行给你标黄、catch 了错误只 console.log(等于没 catch)、变量名拼写错误。

这套逻辑用下来,我的体感:AI 发现问题的速度是人类的 20 倍以上,遗漏率比人类 reviewer 低得多,而且从不得罪人------因为它不带"你写得好烂"的情绪,只有纯技术判断。

二、一行命令立刻拥有

我最近一直在用一个叫 ai-review-pipeline 的工具,它的理念很好:"AI 审查 AI 写的代码"------现在是 AI 辅助编程时代了,写得快但容易藏 bug,我正好需要这种【7x24 小时兜底】

这个工具的特点是用 AI 自动 review + 生成测试 + 自动修复。你就无脑给它一个文件或目录,它出来的是评分 + 问题清单 + 修复建议 + 测试用例

bash 复制代码
npx ai-review-pipeline --file src/ --full

它的流程很清晰:先跑确定性规则检查(比如 ESLint 已有的问题一次性过滤掉,不让 AI 重复废话),然后 AI 带着你配置好的团队规范去读 diff,每发现一个问题就给等级、给修复建议、给代码示例。如果你加 --fix 参数,它甚至会尝试自动修然后重新 review。

你说:"万一自动修复改错了逻辑呢?" 错不了,AI 只敢改那些确定性高的低质量代码(多余空格、未使用的变量、非空断言错误等)。业务逻辑?它先绕开,你合并之前自己把关。

而且支持绝大部分场景(后端 Java, Go, Python, Rust 也能喷):

  • 前端代码 review(React / Vue / TSX、CSS、a11y)
  • backend-code-review(API 设计、数据库、并发安全)
  • 自动修复(默认只修格式、未使用的变量、确定的 lint 类问题,不敢动业务逻辑)
  • Multi-LLM(OpenAI、Claude、DeepSeek、Gemini、Ollama 都能跑)

三、调 AI 的"毒舌参数",让它喷得更专业

我用过 Grok、Claude 和 DeepSeek,相对用得最深的是 DeepSeekOpenAI。调教参数也很简单:

bash 复制代码
# 预设深度更狠一点,让它给你抓出 P0~P3 等级的分类
ai-review config set strictness=high
ai-review config set outputFormat=structured

AI 的审查结果可以直接挂在 GitHub PR 里当 Comment,每条对应具体行数和问题等级。一旦 AI 给了 P0(严重) ,CI 直接 block 合并,你必须解决。

注意:如果你的项目有特别明确的"业务规范",你可以写到 .ai-pipeline.json 配置文件里,例如 "禁止引入 moment.js""禁止在循环中使用 await",AI 会把这部分自动纳入审查范畴,跟内置规则并排跑。

四、这套 AI Code Review 还解决了哪些痛点?

1. 跨语言能力 + 敏感信息排查

检查出来的问题几乎横跨你代码库所有位置:泄漏的 API endpoint、调试信息意外留到生产、图片 dead link 甚至无障碍视觉回归。

它有一个特殊技巧:让多个 LLM 并行审查、互相辩论,然后一个"法官 agent"给出最终裁决。不同模型能逮到不同 bug,通过共识机制滤掉噪音。

2. CI 门禁,上线之前最后一道防线

你可以把 ai-review-pipeline 挂在 GitHub Actions 上,每次 PR 自动执行。如果评分低于阈值(比如 80 分),CI 直接标红,连人都不用到场干预。

某互联网团队落地类似系统后,代码审查周期缩短了 65%,基础性缺陷拦截率提升了 82%。这个数据就是 AI review 正面效果的最好说明。

五、毒舌吐槽大会:AI 喷过的那些人类代码

我随便举几个真实案例,括号里是 AI 原话(节选):

  • 案例 1setTimeout(() => { ... }, 0) 用来模拟"异步一下"。AI 喷:"用 setTimeout 0 是反模式,你应该用 Promise.resolve().then() 或者 queueMicrotask。------另外,你连错误处理都没有?"
  • 案例 2 :自己封装了一个 request 函数,每个请求都 console.log 全部响应体数据。AI 喷:"你在生产环境把整个 API 响应结构暴露到控制台,包含了敏感字段。P0 严重。建议只 log trace id。"
  • 案例 3<img src={userInput} />。AI 喷:"你直接把用户输入当 src?明天你的网站就变成菠菜广告基地。用 DOMPurify 或者干脆用 background-image 托管。"

这套 AI 让我晚上睡得踏实。自从它上线,我再也没有过"线上又崩了,测试也没测出来"的半夜来电。

六、总结:AI 帮你 review 代码不是替代人,而是让你做更高价值的事

  • AI 擅长一致性检查、边界检测、安全底网,还能给出可落地的修复示例。人类 reviewer 只需要关注架构、业务语义、用户体验。
  • 成本几乎为零,你只需要提供几个免费 API(Ollama、Groq 或各家入门额度)+ 一条 npx 命令。
  • 未来方向:不只是 review,还开始蔓延到自动修复+测试生成+知识沉淀,AI 在 PR 里已经可以替你完成 80% 的"找茬"工作。

我的建议:今天就拉一个这样的工具进你的私有仓库和团队。领导不批预算?不用批,无门槛,立刻跑起来。等下次有人 PR 又是"空代码 + 俩表情包"来糊弄时,AI 会替你第一时间上去喷它:"你写的代码,想让我怎么 review?请自重点。"

相关推荐
hexu_blog1 小时前
vue+java实现图片批量压缩
java·前端·vue.js
IT_陈寒1 小时前
为什么你应该学习JavaScript?
前端·人工智能·后端
lifejump2 小时前
Empire(帝国)CMS 7.5 XSS注入
前端·安全·xss
无风听海2 小时前
OAuth 2.0 前端通道与后端通道深入剖析
前端·oauth
sakiko_2 小时前
UIKit学习笔记8-发送照片、拍摄照片并发送
前端·swift·uikit
ZengLiangYi2 小时前
Claude Code 对话自动导入完全指南
ai编程
ZengLiangYi2 小时前
LLM 和 Embedding 不能混用——一个血泪教训
ai编程
_code_bear_2 小时前
OpenSpec CLI 与 OPSX 工作流说明
前端·后端·架构
子昕2 小时前
Claude Code的隐藏功能:让AI组团帮你干活
ai编程