就这一个月(当前2026.03)得物、网易、字节武汉均出现了大面积裁员的消息。从整个行业来看,当前这波裁员前端收到的冲击是最大的。UI和设计在之前的裁员中也是受到很大冲击。可能大厂在AI没这么好用的情况下也会裁员,但是没有AI裁员不会这么厉害。
当前硅基智能大行其道,我们需要知道些什么,才能在目前可预见的几年内的,更好的适应这个行业?结合一些我的认知,提出下面一些观点,不一定正确,毕竟谁又能知道几年时间AI会发展成什么样。
一、提出问题比解决问题更重要
AI编码比人更快更好,但是这建立在一个前提上:就是你定义了一个正确的并且是可以在一轮上下文中被解决的问题。如果提出的问题本身是错误的,你会在错误的道路上越走越远。
还有就是很多时候,老板只给出宽泛的业务问题,范围太大无处发力。产品只管Copy From Others,不管实现难度(AI已经普遍达到编程专家水平,但是对于很多复杂的问题表现依然很差,加上有些需求描述清楚就是件不太容易的事情)。
在这一方面,如果让AI提出问题它就比较弱,因为从开始AI就是被训练成一个解决问题的工具。从一堆问题中找出关键问题,可能是AI目前无法很好替代人类的地方。
二、在矛盾之间取得平衡
有时候,矛盾来自于物理世界的限制,比如无法做到跨数据中心的机房在性能和数据一致性都达到最优。另一些时候矛盾来自于老板或者产品自相矛盾的思路和想法,一些东西初看没问题,但仔细推敲后就很多自相矛盾的问题。
这时候,如果你把问题丢给AI,好的AI会给出一些方案让人选择,但是就算给出选择方案也并不能将矛盾点在几句话中描述清楚。另一些AI则是认为这个矛盾不是问题,按照它认为的关键问题生成了一个解决方案。
三、AI对你的公司或者你的项目了解的比较少
大模型被训练成通用模型,可以解决通用问题。但是你的研发团队对于规范和一些问题有自己独特的处理方式,比如编写函数的时候,AI会在各个层都加入大量参数校验逻辑,但是你们可能只需要简单校验后传给数据库让数据库来校验。
还有就是屎山代码有大量怪异逻辑,人工改的时候都不确定有没有影响其它的逻辑,AI改更是不可靠。
让AI分析整个项目也会让它顾此失彼,无法掌握项目的所有关键设计决策和特殊的实现点。如果后端只是平铺直叙的CRUD逻辑,那对于AI来说比较友好。但大部分业务都不是这样的逻辑,每个commit都包含了大量的思考和选择。
这也是后端为什么没有前端裁员比例那么厉害的原因,因为前端的设计和调整可以在单次决策内完成,但是后端和数据库的调整,既要考虑历史数据和逻辑,还要兼顾一下将来可预见时间内的一些问题。
四、AI会过度发散或者过度拟合
如果是从零到一的项目,比较适合AI开发原型产品。这个也是Vibe Coding的主流。你给一个宽泛的需求,AI就会给一个宽泛的随意发挥的代码。
对于一个要添加功能的需求,你描述的过于详细,他会出现类似于过拟合的情况:什么都按你说的来,可能你说的某个点是错的,但是因为太具体了,AI还是按照你的来。
要解决这个问题,得考人工Review代码。当Review也跟不上的时候,一个好的习惯就是开发人员编写单元测试或者接口测试代码来检查功能。
五、持续学习传统的古法技艺
学习传统的编程以及工程技艺,比如代码规范、架构设计、算法、底层操作系统以及网络知识、软件工程等。同时每个月也推荐留一天古法编程的时间。
六、紧跟AI发展
了解AI最新进展,稍微了解一下AI技术的原理。比如大模型的Token生成原理、知识库技术的RAG原理、ClaudeCode背后的Agent原理等。
使用不同的编程工具和模型,尝试让AI做些你当前认为它做不了的事情,了解它们的能力边界以及进展。