最近这段时间,我反复在想一件事情。不是AI能做什么,而是当AI开始稳定地替代"执行"这一层能力之后,人类的能力结构究竟会发生什么变化。很多讨论停留在一个相对表层的判断,降本、增效、提质,但这种说法本质上还是站在原有范式内部去看问题,它默认我们要做的事情没有发生变化,只是做得更快、更便宜而已。但如果把时间尺度稍微拉长一点,比如三到五年,甚至更久,就会发现问题并不在这里。真正的变化在于,"执行"不再是能力的核心之后,整个学习路径和创新路径都在被重写。
过去,我们习惯于通过执行来获得理解。写代码、做实验、跑模型,这些过程并不只是为了得到一个结果,而是在反复试错中建立对问题的结构性认知。换句话说,执行不仅是生产结果的手段,同时也是"学习机制"的一部分。而当像 Codex 或 Claude Code 这样的工具逐渐能够替代执行之后,这个机制被切断了一半------结果还在,但通过结果反推理解的路径变得更加间接。这意味着,如果我们不做任何调整,长期来看,人类获得能力的方式会变得更加依赖"间接经验",而这恰恰是最容易失真的部分。
所以真正的问题不是"AI替代了什么",而是我们如何在新的能力分布下,重建一套有效的学习与创造机制。如果不去主动构建,这个机制是不会自然存在的。基于这一点,我觉得至少有三件事情是需要被认真对待的。
第一件事情,是如何应对能力范式本身的变化。这里的关键,不是继续强化执行能力,而是承认执行正在从"核心能力"退化为"基础设施"。这有点像电力系统的变化。在电力普及之前,发电本身是一种能力;在电力普及之后,发电变成了基础设施,人们真正竞争的,是如何利用电去构建新的系统。同样的,当执行被AI接管之后,人类需要从"做事情的人"转向"设计事情如何被完成的人",也就是从执行转向机制。这种转变听起来抽象,但实际上非常具体,它意味着你需要能够定义问题的边界、约束解空间、设计交互流程,以及决定在什么条件下系统应该被调整。这些能力,在过去是隐含在执行中的,而现在必须被显式地学习和训练。
第二件事情,是必须重构"学习是如何发生的"。如果过去的学习路径是"通过做获得理解",那么在执行被替代之后,这条路径就不再自动成立了。很多人会自然滑向一种更轻松的模式:提出问题,让AI给出答案,然后继续下一个问题。这种方式在短期内效率极高,但它的问题在于,知识停留在"结果层",没有进入"结构层"。长期来看,这会导致一种能力的错觉------你以为自己掌握了很多,但一旦脱离工具,或者问题发生轻微变化,就无法迁移。因此,在新的环境下,学习需要变得更加"刻意"。你需要主动去还原过程,比如去理解一个结果为什么成立,它依赖了哪些隐含假设,如果改变条件会发生什么,以及这个解法在整个解空间中处于什么位置。换句话说,学习不再是通过"做"自然发生,而是通过"解释、比较与重构"来完成。这其实是一种从经验驱动转向结构驱动的转变。
第三件事情,是在新的能力范式下重新定义"可以做什么"。如果我们只是用AI去完成原本就在做的事情,那么我们只是在加速旧世界,而没有进入新世界。真正重要的问题是,当执行成本接近于零之后,哪些问题开始变得可行。历史上每一次生产力跃迁,真正的创新都发生在这里。不是把原有事情做得更好,而是去做以前无法做的事情。放到当前的语境下,这意味着我们可以开始认真思考一些过去被认为"过于复杂"或"成本过高"的方向,比如长周期、多主体的交互系统,更细粒度、持续演化的用户建模,以及能够在不确定环境中进行自适应调整的机制设计。这些问题的共同特点是,它们不再是单次任务的优化,而是对整个系统行为的建模与控制。从这个角度看,未来的科研不再只是提出一个更好的模型,而是构建一套能够持续运行、持续调整、甚至自我演化的机制。
把这三件事情放在一起,其实可以看到一个更清晰的图景:当执行被替代之后,人类的能力正在整体上移,从"完成任务"转向"定义任务",从"获得结果"转向"理解结构",从"优化单点"转向"设计系统"。如果我们只是停留在效率提升这一层,那么很快就会触及天花板,因为所有人都会拥有同样的工具;但如果能够在能力结构上完成这次迁移,那么AI反而会成为一种放大器,让个体的差异被进一步拉开。
所以回到最开始那个问题,当AI在不断进化的时候,我们人类在进化什么。也许答案并不在于我们学会了更多的技能,而在于我们是否建立起了一种新的能力结构,使得在执行不再稀缺的情况下,我们依然能够产生新的理解、新的问题,以及新的系统。这种能力不会自然出现,但一旦形成,它会比任何具体技能都更加稳定,也更难被替代。