用AI不等于AI First:国内企业 AI 编程落地的第一站,是混乱

Hello,我是Niko。16年程序员老兵,专注分享 AI编程实战经验、宝藏工具资源、前沿技术动态。不玩套路,多讲干货。


最近重读 Peter Pang 那篇《Why Your "AI-First" Strategy Is Probably Wrong》。25 人的公司,10 个工程师,99% 的生产代码由 AI 写,每天部署 3 到 8 次。新功能上午上线、下午砍掉、晚上换个更好的版本------三个月前同样的事要走六周。

这种节奏不是装了 Copilot 就能出来的。结合我在公司和身边朋友的实际情况,最大的感受是:国内绝大部分喊"我们也要 AI First"的企业,应该先把这篇文章逐字读三遍。

我想聊的不是这套方案怎么实现,而是把它当成一面镜子,照一照国内企业 AI 编程落地的真实样子------为什么大多数公司还没开始就已经走错了。

太长不看版

  1. 国内企业 AI 编程落地的第一站,不是提效,是混乱(Chaos)。不破不立,但破坏后的重建,不是所有企业都有这种能力。
  2. 把 AI 工具塞进开发流程不是 AI First,是 AI 辅助。即便程序员完全不再手写代码,加速的也只是"写代码"这一个小环节。
  3. AI First 带来的真正变化有三个:代码仓库的组织方式、公司的组织结构、开发流程的设计。少一个都跑不起来。
  4. 架构师是这套体系里最稀缺的角色,市场上也是。没有多少可借鉴的经验时,个人的判断力和批判性思考反而比技术栈更值钱。
  5. "运营者"是围绕 AI 工作的所有人------他们的工作变成了满足 AI 的任务和要求。
  6. 不会因为工程师在生产环境引入漏洞就解雇他们,而是去完善流程。这和 Claude Code 源码泄露后 Anthropic 的处理思路一致。
  7. AI 提效的部分会叠加,但新瓶颈一定会冒出来。最终能提效到什么程度,由人来制约------具体是由那个最不愿意改流程的人来制约。
  8. 真正的 AI First 是围绕 AI 构建,就像工厂的所有工作和安排都是围绕核心流水线建立。AI 是流水线,不是工人。

落地第一站:不是提效,是一团乱

很多公司一聊 AI First,脑子里浮现的画面是:人少了、提效了、迭代飞快、PR 一晚上合上百个,老板看报表笑得合不拢嘴。

我看到的真实画面不太一样:

  • 老的代码仓库改不动,新的代码 AI 写得飞快,两边对不上;
  • CI/CD 不全,AI 提交的代码更难人工评审,流程上还需要手动测;
  • 测试覆盖率不够,AI 改完一处,QA 上来一句"我不敢说没影响别的功能";
  • 流程里每一个原本由人审批的环节都没人敢撤,AI 速度被卡在审批门外;
  • 团队里有人激进有人保守,资深工程师自我怀疑,初级工程师跃跃欲试,中层不知道该往哪边站。

这是落地的第一站------Chaos

破坏旧流程很容易。问问 AI 让它给你写一份"AI 优先的开发流程改造方案",半天就能拿到一份像模像样的 PPT。但破坏之后的重建,不是所有企业都有这个能力。

Peter Pang 在文章里轻描淡写地写了一句"我花了一周设计新系统,再花一周用 AI 重构整个代码库"。听起来很潇洒。但他在文末才说出代价:

"员工的迷茫与焦虑、CTO 每天工作 18 个小时的煎熬、资深工程师对自身价值的自我怀疑,以及那段旧系统已拆毁而新系统还未跑通的、令人窒息的两周真空期。"

国内企业能扛住这两周真空期的,凤毛麟角。多数公司第三天就会开始"先回滚一下,等大家适应了再说"------然后就再也回不去了。

只用AI编码,不叫 AI First

我见过太多团队,老板喊一句"我们要 AI First",第二天给每个工程师批了 Claude 订阅,半个月后开总结会:"效率提升了 20%。"

这叫 AI 辅助,不叫 AI First。

两者的差别:

就算你现在已经完全不手写一行代码,让 AI 写完所有功能,这依然只是 AI 辅助。 加速的只是"代码编写"这一个小环节。从需求到上线,写代码原本就只占整个流程很小的一部分------需求、设计、评审、测试、部署、监控、回滚,哪一环不是人在干?

写代码从两天压到两小时,听起来快了 8 倍。但前面需求评审花了三周,后面 QA 测试花了三天,整体节奏根本不会变。用文中的话说:你只是在离旧瓶颈十英尺远的地方,又建了一个新瓶颈。

真正的 AI First 要改三件东西:

  • 代码仓库的组织方式------从分散的多仓库走向 Monorepo,让 AI 能"看见"全局。
  • 公司的组织结构------从"工程师 + PM + QA + 架构师"的传统分工,走向"架构师 + 运营者"的二分。
  • 开发流程的设计------从"人评审 AI 输出"到"AI 评审 AI 输出,人审战略风险"。

少一个,AI First 就跑不起来。

角色重排:谁变得更值钱,谁变得更焦虑

Peter Pang 把 AI First 组织里的人分成两类:架构师运营者

架构师只有一两个人。他们设计标准作业程序,教 AI 如何工作,构建测试支架和集成系统,拍板系统架构和边界。他们定义在 AI 眼里什么叫"好"。

运营者是其他所有人。他们的工作依然重要,但结构变了------现在是 AI 给人分配任务。分诊系统发现 Bug,创建工单,亮出诊断结果,分配给合适的人。人去调查、验证、批准修复方案。AI 提交代码,人审核风险。

这个分法听起来简单,放到国内企业的语境里,有几个很现实的问题。

架构师是所有企业都稀缺的角色,也是市场上最稀缺的。

这个角色需要的不是写代码的能力------AI 已经能写了。需要的是批判性思维:AI 提出一个方案,你能不能找到它遗漏的失效模式?越过了哪些安全边界?积累了什么技术债?

Peter Pang 说他有物理学博士学位,读博期间学到最有用的东西是"如何质疑假设、给论点做压力测试、寻找逻辑漏洞"。他的判断是:在未来,批评 AI 的能力将比写代码的能力更有价值。

我同意这个判断。补一句:在 AI First 这条路上,没有多少可借鉴的经验。每家公司业务不同、技术栈不同、团队基因不同,你不可能照搬别人的方案。这时候,个人的判断力和批判性思考的能力,比任何技术栈都值钱。

运营者不是"低级工程师",而是围绕 AI 进行工作的人。

换个说法更直白:运营者满足的是 AI 的任务和要求。AI 发现问题、诊断原因、生成工单,运营者去验证和执行。这不是降级,但确实是角色反转------过去是人给机器下指令,现在是机器给人派活。

这种反转对很多资深工程师来说是心理上的暴击。文章里提到一个有意思的现象:初级工程师比资深工程师适应得更快。 没有传统思维定式的人,拿到一个能放大自身影响力的工具,如虎添翼。而花了十几年练就一身手艺的人,发现 AI 一小时就能干完自己两个月的活------这很难接受。

不同职位的价值锚点在发生转移:

角色 旧价值锚点 新价值锚点
高级工程师 代码产量、技术深度 决策质量、判断力
产品经理 需求文档、规划能力 直觉和品位
CTO / 管理层 团队管理、资源协调 不让流程成为瓶颈和制约

最后一条尤其重要。Peter Pang 说他从"管理者"变回了"建造者",每天从早 9 点写代码到凌晨 3 点。传统 CTO 模型里 60% 的时间花在人员管理上------对齐优先级、开会、给反馈、辅导工程师。现在这些事情不到 10%。

对国内的技术管理者来说,这意味着一个很尖锐的问题:如果你的日常工作是开会、对齐、审批,而这些恰好是 AI First 要消灭的瓶颈------你自己就是那个瓶颈。

不解雇引入漏洞的工程师,去完善流程

Peter Pang 文章里有一句话让我印象很深:

"我们不会因为一个工程师在线上写了个 Bug 就开除他。我们会改进审查流程、加强测试、增加护栏。对待 AI 也是一样。如果 AI 犯了错,我们就去构建更好的验证机制、更清晰的约束条件和更强的系统可观测性。"

这让我想起 Claude Code 源码泄露那件事。Anthropic 的处理方式不是追责某个人,而是回头审视整个流程:为什么这个东西能泄露出去?哪个环节缺了防护?怎么让这种事不再发生?

两件事逻辑一样:出了问题不追人,追流程。

放到 AI First 的语境里,这个思路更关键。AI 写的代码一定会出 Bug,一定会引入漏洞,一定会在某个边界条件上翻车。这不是"如果"的问题,是"什么时候"的问题。

你的应对方案如果是"出了事找人背锅",那永远建不起来 AI First 的体系。每个人都会变得保守------不敢让 AI 多做事,不敢减少人工审查,不敢自动化部署。最后 AI 的能力被人为压缩到一个"安全但没用"的范围里。

Peter Pang 的做法是建一套自愈闭环:

  • 每天早上 AI 自动扫描 CloudWatch 日志,生成健康报告;
  • 一小时后分诊引擎自动聚类错误、评估严重程度、生成调查工单;
  • 工程师提交修复后,同一套流水线自动验证,确认修复后工单自动关闭;
  • 如果之前关闭的问题又出现了,系统自动检测到回归并重新打开工单。

每个 PR 触发三轮 AI 审查:代码质量、安全漏洞、依赖风险。这不是建议,是拦截关卡------过不了就不能合并。

完善以 AI 为核心的整个流程和审查机制,才是正路。 不是靠人盯着 AI,是靠系统约束 AI。

提效会叠加,但瓶颈永远在

一个容易被忽略的事实:纳入 AI 流程被提效的部分,效果确实会叠加。 AI 写代码快了,AI 审查代码也快了,AI 跑测试也快了------串起来,整体速度确实是指数级提升。

但新瓶颈一定会冒出来。

Peter Pang 自己列了三个:产品管理的瓶颈(PM 花几周做需求,AI 两小时就能实现)、QA 的瓶颈(AI 写代码两小时,QA 测三天)、人力的瓶颈(25 人对抗几百人的竞争对手)。他解决了这三个,但没说的是------解决完之后,下一个瓶颈是什么?

答案是:人。

就是那个做判断的人。架构师的判断速度、产品经理的品位、CTO 对流程的设计能力------这些 AI 目前替代不了,也是整个系统最终的天花板。

AI 能把执行速度拉到极致,但决策速度取决于人。一天部署 8 次没问题,但架构师一天只能审 3 个方案,另外 5 个就得排队。产品经理的直觉跟不上迭代速度,功能上了又砍、砍了又上,快也没意义。

最终提效的程度,还是由人来制约。 更准确地说,是由那个最慢的人------通常也是最不愿意改流程的那个人------来制约。

真正的 AI First 是围绕 AI 构建

写到这里,用一个类比收尾。

想象一家工厂。流水线是核心,所有的工位、物料、质检、仓储、排班,都是围绕流水线安排的。没有人会说"我们先把工人招好,然后看看流水线怎么配合工人"------那不叫工厂,叫手工作坊。

真正的 AI First 是这个逻辑。AI 是流水线,不是工人。

所有的工作和安排------代码仓库怎么组织、PR 怎么审查、测试怎么跑、部署怎么做、监控怎么看、工单怎么流转------都要围绕"让 AI 能高效、安全、可控地工作"来设计。人的角色是设计流水线、维护流水线、在关键节点做质检。

大多数国内企业现在做的事情,是在手工作坊里放了一台机器人,然后让工人教机器人怎么用锤子。机器人确实比人锤得快,但作坊还是作坊。

从作坊到工厂,要改的不是工具,是整个生产方式。

这条路不好走。Peter Pang 用两周真空期、18 小时工作日、团队的焦虑和自我怀疑换来了现在的结果。国内企业要走这条路,挑战只会更多------技术基础设施的欠账、组织惯性的阻力、管理层对"失控"的恐惧。

但方向没有错。每做一个决策的时候,想一想这件事能不能让 AI 来做。如果不能,缺什么条件,怎么把条件补上。 这种意识本身,就是 AI First 的起点。

至于终点------可能不是让 AI 干所有的活,而是借着这股力量,把你一直想做但没动力做的工程改进,真正推动起来。


参考资料:

相关推荐
日光明媚6 小时前
torch.compile 与 Triton 的加速本质:从原理到实际效果
人工智能·python·计算机视觉·stable diffusion·aigc
一条小鲤鱼6 小时前
Claude Code 使用指南(一)
claude
山间小僧6 小时前
「AI学习笔记」万恶之源《Attention is all you need》
后端·openai·ai编程
时空系7 小时前
第12篇:文档操作——文件读写 python中文编程
开发语言·python·ai编程
Resistance丶未来8 小时前
Kimi K2.6 智能应用场景与落地指南
人工智能·gpt·大模型·api·claude·kimi·kimi k2.6
feasibility.8 小时前
思想之光照见本源:AI 感官全域觉醒进化史
人工智能·科技·语言模型·aigc·多模态·具身智能·世界模型
敲上瘾8 小时前
LangChain 结构化输出与流式传输
python·语言模型·langchain·aigc
程序新视界9 小时前
Claude Code的Skills实践及利器推荐:工欲善其事,必先利其器
claude
Hommy889 小时前
【开源剪映小助手】视频生成接口
服务器·github·aigc·剪映小助手·视频剪辑自动化