这一年,我几乎每天都在和 AI 一起写代码。
从最初的惊艳,到现在的冷静,我越来越确定一件事:
AI 编码最大的风险,从来不是它写错代码,而是人把判断权交了出去。
AI 很强,但它并不负责后果。
一、AI 写得很快,但"理解"并不等于"正确"
第一次用 AI 写业务代码时,我是兴奋的。
需求一丢,代码几秒钟就出来,看起来结构清晰、命名规范、甚至还有注释。
但真正上线前,我才发现:
它理解的是"文字",不是"业务"。
它不知道哪些字段不能为空
不知道这个接口在历史上踩过什么坑
不知道某个"看似多余"的逻辑,是为了兜底线上事故
AI 能模拟经验,却没有经历。
所以后来我给自己定了一个原则:
只要是业务逻辑,AI 写的是"草稿",不是答案。
二、AI 很自信,但它不会告诉你"不确定"
AI 最大的迷惑性在于:
它说得永远很笃定。
即便某个方法根本不存在
即便某个 API 参数顺序是错的
即便它是在"猜"
它也会用一种"专业语气"写出来。
这让我踩过不止一次坑。
后来我才意识到:
AI 的自信,不来自事实,而来自概率。
于是我开始反过来要求它:
- 如果不确定,必须明确说明
- 先列出假设,再给代码
- 给我"为什么这么写",而不是只给结果
从那之后,AI 才真正变成了助手,而不是"骗子型同事"。
三、AI 会帮你写代码,但不会帮你负责
这是我用 AI 最大的分水岭。
当代码出问题时:
- 不是 AI 上线的
- 不是 AI 接电话的
- 不是 AI 被追责的
最终负责的人,永远是你。
如果你看不懂它写的代码
如果你无法解释这段逻辑
那这不是"高效",而是"风险外包失败"。
我后来要求自己:
凡是我合并的代码,必须是我能手写出来的。
AI 只能加速我已经理解的事情,
而不能替代我本该拥有的判断力。
四、最危险的不是 AI 写错,而是人不再思考
有一段时间,我明显感觉到自己在"退化":
- 不再先设计方案
- 不再画流程
- 不再思考边界条件
而是习惯性地问一句:
"AI,你帮我写一下。"
这不是效率,这是依赖。
后来我刻意调整使用方式:
- 先自己想清楚方案
- 再让 AI 实现
- 最后反过来让 AI 挑我方案的毛病
这个顺序一改,我反而用 AI 用得更稳、更快。
五、AI 更像放大器,而不是方向盘
现在回头看,AI 编码真正的价值,不是"替人写代码",而是:
- 放大一个有经验的人
- 加速一个有判断力的人
- 暴露一个没想清楚的问题
它不会让糟糕的工程师变好,
只会让混乱更快发生。
写在最后
如果一定要用一句话总结我对 AI 编码的态度,那就是:
AI 可以参与编码,但不能参与决策。
你可以让它快
但方向必须你来定
风险必须你来扛
责任必须你来背
真正成熟的 AI 编码,不是"人被替代",
而是人变得更清醒。