大家好呀,我是飞鱼
现在 Vibe Coding 越来越多人在用,各种 AI 工具也很多,像Claude Code,Codex,Cursor等等。
但我注意到一个现象,大部分人用 AI 写代码,跑通了就觉得它搞定了。
这个其实是 AI 编程里面最危险的想法。
因为可能出现:从提出需求,再用 AI 去生成代码,然后跑起来,再上线,结果上线直接崩溃😂。
❝
能跑起来和没有问题实际上是两回事,跑起来不等于没问题。
所以现在用 AI 写代码其实有两种坑:
❝
一种是跑都跑不起来的幻觉,代码看着像那么回事,一运行就报错。
另一种就是能跑起来,看起来没毛病,但是藏着你发现不了的问题。
但我们可以在写完代码之后让另一个 AI 帮你去审查,这个方法能够帮你发现很多问题。
其实用 AI 写代码,有几个原则是可以参考的:
❝
我们可以花 20% 的 Token 用在设计规划上,不过这个需要你想清楚你到底是要什么?
再花 60% 的 Token 去写代码。
还有 20% 的 Token 去做测试验证,去检查 AI 写的代码到底是对还是不对?
很多人是把验证这一步就直接给跳过了,但是这个是 AI 编程里面最被忽略的一环。
那怎么去验证呢?
❝
让 AI 自己去检查一遍不就行了吗?不行。
就像你自己去写一篇文章,然后你自己去检查一遍,其实你大概率发现不了自己的错别字,发现不了问题。
因为思维惯性,你的大脑会自动去脑补这个正确的内容,然后你看到的你以为你写的,但实际并不是你写的。
那 AI 也是一样,你让它自己去检查它自己刚写的代码,它也会有思维惯性。
它自己全程参与了开发,它肯定每一步都觉得是合理的,那自查的结果大概率是合格。
所以你需要去找另一个AI,去检查这个AI:
❝
比如说用 Claude Code 去写代码,写完后,先让它去自查修复。
然后用 Codex 去做一个零上下文的一个盲审,盲审完再修复,最后上线。
这里面的零上下文就是只给它代码的改动和简单的描述,告诉它你之前是怎么去想的,不给任何的实现细节。
我自己每天都在用这个方法,效果很明显,经常能发现第一轮完全没有去注意到的问题,但需要一些 Token 成本。
其实现在 AI 编程,真正拉开差距的从来就不是谁能让 AI 去写出更多代码,这个门槛现在是越来越低了。
现在拉开差距的就是你能不能去判断 AI 写的东西到底靠不靠谱。
这句话我说了很多次了:在 AI 时代,你能力越强,才能无效放大 AI 的能力。
AI 协作是未来程序员的核心竞争力,而审查代码是现在大部分人跳过的关键一步,大家平时要注意下!
❝
最后想看技术文章的,可以去我的个人网站:hardyfish.top/