背景
已经一年多没有输出技术文章了。这一年忙着人生几件大事------买房、装修、结婚,但停笔的另一个原因,是愈发强烈的失语感。
这一年多来重度使用AI,发现它能生成结构更工整、表达更流畅的内容;自己吸收新知的渠道,也慢慢从文档、书籍转移到了各个大模型。既然答案触手可及,动笔的必要性究竟在哪里? 这是我想厘清的问题。
曾经写作的理由
以前坚持写技术文章,是因为发现了一个关于"真懂"的悖论:
表格
| 阶段 | 状态 | 特征 |
|---|---|---|
| 输入 | 看了文档/视频 | "好像懂了" |
| 实践 | 动手做过 | "能做出来" |
| 输出 | 写成文章 | "能讲清楚" ← 这才是真懂 |
写作是最后的检验仪------那些你以为理解的概念,往往在试图解释时暴露出逻辑断层。
当然,如果只是为了"给别人看",直接让AI代笔似乎更划算。但如果是为了让自己研究明白,亲手梳理的过程依然不可替代。只是代价确实高昂:每篇文章动辄10+小时,翻遍资料、反复推敲、润色表达。
更挫败的是,对于日常CRUD工作,很多技术细节几个月不用就淡忘。回看自己写过的东西,那些曾钻研得通透的知识点,如今竟也陌生。当时越通透,过后越干净。 这种"白写"的感觉,让人怀疑持续投入的意义。
或许,后续应该转向输出做事的方法论------那些跨技术栈、不易过时的思考方式,反而能引发更深层的交流。
人才断代
比个人输出更迫切的,是近一年来对AI Coding的深度依赖带来的隐忧。
随着模型能力跃升,大部分功能实现都可以交给AI完成。网上各公司也在大力推广AI编程工具,仿佛这是唯一的未来。但我不禁想问:当应届生从一开始就习惯用AI写代码,甚至用AI学代码,这个行业的人才培养会出现断层吗?
这不止于编程。如果未来各行各业都过度依赖AI、放弃深度求索,人类是否正在亲手拆除自己的认知基座?
1. 能力幻觉:从"驾驭工具"到"被工具驾驭"
理想的AI使用方式,是用AI加速思考 ;危险的方式,是用AI替代思考。当下的风险在于,许多学习者正在经历后者:
表格
| 传统成长路径 | AI辅助路径 | 关键差异 |
|---|---|---|
| 理解原理 → 实践验证 → 熟练运用 | 描述需求 → AI生成 → 调试运行 | 跳过了"理解"环节,直接获得结果 |
| 在错误中积累直觉 | 依赖AI纠错,缺乏"痛感"的经验 | 失去对"为什么错"的深层感知 |
认知摩擦(cognitive friction)------那些让人抓耳挠腮、反复试错的挣扎过程------恰恰是深度学习发生的时刻。当AI抹平了这些摩擦,我们也同时失去了通过挣扎获得深刻理解的机会。
2. 判断力的悖论:谁来评判AI?
如果一代人从未独立解决过复杂问题,他们如何具备评判AI输出的能力? 这种判断力并非天生,它依赖于:
-
领域直觉:知道"这看起来不对"的第六感,来自无数次踩坑
-
第一性原理:能拆解到基础层验证逻辑,而非停留在表面调试
-
边界认知:清楚什么是AI擅长的,什么是它容易"幻觉"的
-
讽刺的是 :这些能力恰恰需要通过不依赖AI的深度学习才能获得。全程AI陪伴的成长,就像永远骑着辅助轮骑车------看似在前进,却从未真正掌握平衡。
3. 断层的形状:两极分化与中间层消失
"人才断代"并非指未来没有优秀工程师,而是人才结构可能出现危险的空心化:
- 顶层:少数真正理解底层、能驾驭AI的架构师
- 底层:大量能描述需求但缺乏深度的"问题转述者"
- 断层:中间层------那些既懂业务又能深入技术实现的"中坚力量"------可能变得稀缺
更深远的影响在于创新能力的枯竭 。AI擅长模式重组,但突破性创新往往来自对底层约束的深刻理解和质疑------而这种质疑的勇气和能力,需要你在某个领域曾经比AI懂得更深。
可能的出路:与AI共生的原则
风险不在于使用AI,而在于用AI外包思考而非增强思考。几点应对思路:
- 保留"无AI区" :定期给自己布置必须纯手工解决的任务,维持认知肌肉
- 强制追问到底:对任何AI输出,追问三个"为什么"直到底层原理
- 写作作为"认知锚点" :这正是回归写作的意义------它强迫你构建自己的逻辑体系,而非消费AI的碎片
未来的方向:从"技术输出"到"认知输出"
经过这一年的停顿与反思,我逐渐厘清了一个判断:在AI能生成完美答案的时代,人的价值不在于"知道更多",而在于"如何思考" 。
未来的输出重心,将从具体技术细节转向做事的思想与流程------那些跨领域、耐磨损、且AI难以直接给出的"元能力"。