你可以外包思考,但不能外包理解

你可以外包思考,但不能外包理解

------从 Karpathy 引用的一句话,看 AI 时代真正稀缺的能力


一、一句值得反复琢磨的话

2026 年 Sequoia AI Ascent 的一次访谈中,Karpathy 被问到:当智能变得廉价,什么还值得深入学习?

他引用了一句让他反复回味的话:

"You can outsource your thinking, but you can't outsource your understanding."

你可以外包你的思考,但不能外包你的理解。

这句话他显然反复想过,因为他接着说:信息仍然必须进入我的大脑。我正在成为那个瓶颈------要知道我们到底在构建什么、为什么值得构建、如何指挥我的 agents。

两层意思叠在一起:AI 让 thinking 变得廉价了,但 understanding 的负担不但没有减轻,反而更重了------因为要指挥的东西更强了,指挥错的后果也更大了。

但 thinking 和 understanding 到底指什么?边界在哪?为什么一个可以外包、另一个不能?如果不把这些拆透,这句话就只是一个漂亮的金句。


二、Thinking 和 Understanding 的边界

Thinking:可外化的认知加工

Thinking 是对信息进行显性加工的过程,包括检索、拆解、比较、推理、生成、转换、总结、执行,也包括探索、试错、假设生成和反事实推演。

它的范围比很多人以为的广得多。写一条 SQL、实现一个功能、生成一份报告------这些是最明显的 thinking。但还有大量不那么显眼的:从各种渠道收集信息然后汇总到一起,把杂乱的数据整理成结构化的表格,读一篇长文章提炼出几个要点,比较两个方案列出各自的优缺点,写一封邮件把技术问题翻译成业务方能听懂的话,整理一份会议纪要,把一种格式的文件转换成另一种格式。

这些事加起来可能占了一个知识工作者每天大部分的时间。很多人不觉得它们是"thinking"------觉得这就是"干活"。但它们有一个共同特点:可以被表达出来、交给外部工具处理,并且通常可以通过某种方式检查结果。这正是 AI 最容易接管的部分。

不过这里有一个微妙的地方:同样是做 thinking,不同人做出来的质量差别很大。高手写的代码和新手写的代码天差地别。这个差距不是因为高手打字更快,而是因为高手对问题的理解更深------这种理解自动地渗透进了他做事的每一个环节。高质量的 thinking 里面,其实夹带着大量微小的判断,而这些判断的质量取决于做事的人的 understanding。

Understanding:内部模型改变之后形成的判断力

Understanding 是什么?

最直观的例子:同样看一盘棋,新手看到的是一堆棋子的位置,高手看到的是局势、威胁和三步之后的走向。他们看的是同一盘棋,但"看见"的东西完全不同。高手多出来的那部分不是更多的信息------棋子的位置新手也看得到------而是一种把信息组织成判断的能力。

Understanding 首先是一个人认知结构的稳定改变------你脑子里对"事情怎么运转"的那张地图被重新画了一部分:新加了一条路、修正了一个错误的标注、发现了两个区域之间原来有一条暗道。这种改变让人面对新情境时,能够判断什么重要、什么可疑、什么值得做、什么需要放弃。

更进一步,人的 understanding 还和责任绑定。真正的判断不会停在分析层面,它最终会落到选择、行动和后果承担上。这一点后面会展开。

Understanding 最核心的特征------它会改变行动。

真正的 understanding 不是"我知道了某个东西",而是因为知道了它,整个人看问题的方式、做判断的习惯、行动的模式都跟着变了。一个真正理解了安全驾驶的人,不是每次开车都在脑子里过一遍规则,而是自然而然地保持车距、预判风险。规则消失了,变成了身体的一部分。

如果一个人说"我理解了",但做事的方式没有任何变化------那他其实没有理解,只是记住了一些信息。

怎么判断自己是不是真的理解了?可以问几个问题:我能不能预测它在什么情况下会失败?我能不能在一个全新的场景中重新应用它?我能不能发现 AI 输出里看似合理但实际有问题的地方?如果答案都是否定的,大概率只是"知道"了,还没有"理解"。

Understanding 在日常中经常表现为有根据的判断------能说出理由、能指出依据、能解释逻辑。但在少数关键时刻,它也会表现为一种直觉。一个有十年经验的老手看一个方案,几秒钟内就有感觉"这里不对",但一时说不清楚具体为什么。这种直觉不是凭空猜测------它背后是多年实战经历沉淀之后形成的模式识别,只是压缩得太深,还没有来得及还原成清晰的理由。大多数时候,一个有经验的人既能做出判断,也能事后解释判断的依据。只是偶尔,判断会跑在解释前面。

这种理解也有深浅之分。通过读书、听课获得的理解,和通过实战获得的理解,质地不一样。读书得来的是"我知道这件事可能会发生"。实战得来的是"我被这件事伤害过,我知道它发生时是什么感觉、会引发什么连锁反应、在什么时机应该怎么应对"。前者是平面的,后者是立体的------带着温度、带着痛感、带着对时机和分寸的体感。

陆游说"纸上得来终觉浅,绝知此事要躬行"。他没有否认"纸上得来"的价值------他说的是"浅",不是"没有"。读书也能产生 understanding,但缺少实战赋予的那种深度和质感。

借中文里的"知"和"识"来看

我们也可以借中文里的"知"和"识"来理解这个区别。"知"更接近拥有信息,"识"更接近辨别要害。这个拆法不必当作严格的词源学结论,但它很适合解释 AI 时代的能力迁移:知的获取成本快速下降,识的培养成本依然很高。

王阳明讲"知行合一",说的不是"你要既知又行"这么简单,而是更彻底的一件事:真正的知就是行,真正的行就是知。你说你"知道"一个道理但行为没有任何改变,那你其实不知道------你只是记住了一串字。

从"知"到"识",到影响行动,到知行合一------这就是 understanding 的完整链条。而这条链条的输出端,就是决策和判断。AI 可以给你十个选项和每个选项的利弊分析,但最终"选哪个"是 understanding 在说话。

Understanding 不是"脑子里多了什么",而是"这个人因此变成了什么"。

边界不是固定的

值得补充的一点:thinking 和 understanding 之间的边界不是一条固定的线,它们之间存在双向流动。

Understanding 会向 thinking 转化。一个人对某个领域有了深刻理解之后,他的很多判断会逐渐变成可描述、可传授、可流程化的东西。比如一个架构师最初凭经验判断"这个方案扛不住",后来他把这种判断总结成了几条评估原则,写成了文档,变成了团队的检查清单。这个过程就是 understanding 固化成了 thinking------一旦固化,它就可以被交给 AI 去执行了。

这其实是知识进步的基本模式:前人的 understanding 变成后人的 thinking。牛顿对力学的理解变成了后来工程师日常使用的公式,某个团队 leader 对系统稳定性的理解变成了运维手册里的检查项。

当然,这种转化通常只能转化一部分。越接近明确规则、稳定场景、可验证结果的理解,越容易固化成 thinking;越接近分寸、价值、关系和临场判断的理解,越难完整外化。

反过来,thinking 的过程也会催生新的 understanding------前面说过,亲手做事的过程中会附带长出理解。

所以 AI 时代的一个重要动作是:主动把自己已经理解透了的东西转化成 thinking,交给 AI 执行,然后腾出手来去面对下一个还没有被理解的问题。 今天的 understanding 就是明天的 thinking,而明天又会有新的 understanding 需要去建立。这个循环不断推进,人处理的问题就不断往上走一层。


三、AI 时代的能力迁移

AI 首先冲击的是那些可表达、可拆解、可验证的 thinking。代码、测试、数学、结构化数据处理这类反馈信号清晰的任务,进步最快。检索、生成、转换、编排这些操作本身也会被 AI 接管,但它们的质量仍然取决于结果是否能被有效验证。

这也意味着大量基础 thinking 的稀缺性在下降。那些可表达、可拆解、可验证、可批量执行的认知加工,正在被 AI 快速压低成本。但高质量的 thinking 仍然依赖 understanding------因为真正难的地方往往不在生成一个答案,而在判断什么问题值得问、什么输出值得信、什么风险不能放过。

Karpathy 说自己"正在成为瓶颈",原因就在这里。不是他的能力不够,而是 AI 的执行速度远远超过了他消化和理解的速度。AI 可以一小时生成二十个方案、改五十个文件、跑一百个测试。但每一个方案要不要采纳、每一个改动有没有问题、这些产出加在一起是不是朝着正确的方向走------这些判断必须经过他的大脑。AI 把 thinking 的产出速度拉到了极高,但人的 understanding 带宽没有跟着变宽。生产端加速了,质检端没有加速,人就成了瓶颈。

当基础 thinking 人人都能借 AI 做到时,差距就从"谁做得快"转向了"谁判断得准"。

在工作中,这种迁移体现得很具体:

实现一个功能是 thinking。决定做不做这个功能是 understanding。写技术方案是 thinking。判断方案在当前团队能不能落地是 understanding。排查错误是 thinking。预判哪里会出错是 understanding。学一个新框架是 thinking。判断该不该引入是 understanding。

这些例子有一个共同规律:thinking 处理的是相对标准化的信息加工,understanding 处理的是具体情况下的判断和取舍------同样的技术选择,在一个团队是最优解,换一个环境可能是灾难。

而且有一类判断,不管 AI 技术怎么发展,大概率会一直留在人手里:涉及价值取舍的判断。"这个产品应该优先服务大客户还是长尾用户"------没有标准答案,取决于什么对我们更重要。"团队现在应该拼速度还是打基础"------取决于对当前阶段的判断。这类问题的本质不是"推出最优解",而是"在没有最优解的情况下,决定什么更重要"。这是价值排序,需要一个有立场、有利害关系的主体来做。

长远来看,人的角色可能从"做大量判断"变成"做少量但更关键的判断"。数量在减少,但每一个的权重在增大。


四、AI 可以模拟理解,但不能替人承担后果

AI 在很多场景下已经展现出了某种"功能性理解":它能解释代码、修复 bug、理解上下文、发现设计漏洞、根据反馈调整方案。Karpathy 自己也用"jagged intelligence"(参差不齐的智能)来描述这种状态------AI 在某些被大量训练的任务上很强,在其他地方会出现很奇怪的失败。

所以问题不是"AI 能不能理解",而是 AI 的"理解"和人的 understanding 之间差在哪。

差在后果!

AI 可以接收反馈,但它不承担反馈。测试失败,对 AI 只是一个信号;生产事故,对人是责任、压力、损失和关系后果。人的 understanding 会被后果塑造------被凌晨三点的故障叫醒,那种疲惫和紧张会让人对"系统稳定性"这几个字产生此前不可能有的理解深度。一个方案在生产环境崩了,那种沉重感会让人下次评估方案时本能地多想一步。

AI 系统会在训练、强化学习、产品反馈和上下文交互中被调整,但这种调整发生在系统层面或上下文层面,不等于它像人一样把后果消化成经验。两者都能改进行为,但沉淀出来的东西不一样。人沉淀出的是带着切身感受的判断力,AI 沉淀出的是统计意义上的更优输出。

Karpathy 在访谈里还用了一个说法:LLM 是"ghosts, not animals"------没有生物性的驱力、内在动机和进化塑造出来的主体性。这不是在贬低 AI,而是在标出一个根本差异:AI 没有"对我而言什么更重要"这个维度。它可以分析重要性、排列优先级,但这些分析背后没有一个承担后果的主体。

所以人必须留在 loop 里。不是因为 AI 不够聪明,而是因为某些判断必须由一个会承受后果的人来做。


五、外包 Thinking 的收益和代价

把 thinking 交给 AI,收益是明显的:释放认知带宽,让人有可能把时间花在更需要 understanding 的事情上。

但有一个容易忽略的代价。

很多 understanding 是在做 thinking 的过程中"顺便"长出来的。一个人手写代码的时候,不只是在做符号操作。写着写着遇到一个微小的选择,这个选择迫使他去想"底层逻辑到底是什么"。调试一个报错的过程中,他被迫理解了系统的真实行为。优化的过程中,他对性能瓶颈建立了直觉。这些 understanding 不是刻意学来的,是在做事的过程中附带生长的。

当 thinking 全部交给 AI,这条暗线就断了。

更隐蔽的风险是一个自我加速的循环:AI 接管 thinking → 人在 thinking 过程中培养 understanding 的机会减少 → understanding 停滞甚至退化 → 指挥 AI 的质量下降 → 越来越依赖 AI 的默认输出 → understanding 进一步退化。这个循环身处其中很难察觉------因为产出量可能一直很高,只不过越来越像是在替 AI 跑腿。

核心风险不是"AI 取代了人的 thinking",而是人把所有 thinking 都外包出去之后,连原本会在 thinking 中自然生长的 understanding 也一起丢掉了。 这才是真正的能力空心化。

即使在已经很熟悉的领域,也不能完全撒手。Understanding 像体能------停止训练就会退化。一个外科医生三年不上手术台,知识还在,但手感和在压力下的反应速度都会钝掉。认知领域也一样:完全依赖 AI,时间长了,那种"一眼看出问题"的直觉会慢慢变迟钝。


六、AI 时代怎么训练 Understanding

传统上,understanding 的生长靠一个循环:做出判断 → 判断导致行动 → 行动产生结果 → 从结果中获得反馈 → 反馈修正内部模型。每转一圈,理解深一层。

这个循环的核心环节是结果反馈。做了判断但不知道结果如何,understanding 不会生长。很多人的问题出在这里:做了决策就扔到一边,从不回头看当时的判断对不对、为什么对、为什么不对。闭环断在了最后一步。

一个简单但有效的做法:每次做完一个重要判断之后,留下四行记录:

  1. 当时的判断是什么?
  2. 依据了哪些假设?
  3. 实际结果是什么?
  4. 哪个假设需要更新?

不需要写很多,几句话就够。长期看,understanding 的增长不靠"多想",靠的是持续校准。没有记录,反馈会流失;没有复盘,经验会变成模糊的感觉;没有假设更新,失败只会变成抱怨。

Understanding 在失败中长得最快。成功强化已有的模型,但不一定修正它。失败才会。预期和现实发生剧烈冲突的时候,内部模型被迫更新。那个更新过程往往不舒服,但不舒服本身就是 understanding 在生长的信号。

Understanding 还需要时间发酵。今天想不通的问题,睡一觉第二天可能通了。今年读一本书没感觉,三年后重读字字珠玑。大脑在后台持续做连接和重组,这个过程没法加速。

以上在 AI 时代依然成立。但 AI 也带来了新的增长路径。

过去,understanding 的反馈循环主要通过"亲手做事"来驱动。现在多了一种可能:通过审视和判断 AI 的输出来驱动。 AI 给出一个方案,判断它好不好、哪里不对、为什么不对------这个过程本身就是 understanding 在工作。方案上线后的结果反过来校准判断力。做事的人变了,但判断与反馈的循环可以保留------前提是真的在做判断,而不是无脑接受默认输出。

AI 也可以直接参与这个闭环------记录判断、追踪结果、生成反例、逼问假设。但闭环最终有没有更新人的内部模型,仍然取决于人有没有认真面对反馈。工具可以把反馈送到你面前,但消化反馈这件事没有人能替你做。

Karpathy 在访谈中提到他对 LLM 知识库非常兴奋------每次从不同角度让模型重新解读同一份资料,都可能产生新的洞察。这指向另一条路径:不是通过做事积累经验,而是通过多角度审视来触发认知重组。一个人很难自发地从五个完全不同的角度看同一个问题,但 AI 让这件事变得容易了。

目前大多数 Agent、Skill、Tool 的主功能仍然是外包 thinking:检索、生成、执行、转换、编排。但下一类更有价值的工具,可能会转向促进 understanding:帮人发现盲区、构造反例、跟踪判断结果、沉淀经验、逼迫内部模型更新。当所有人都在卷"让 AI 帮你做更多"的时候,这个反方向------"让 AI 帮你想更深"------可能是更大的机会。


七、哪些 Thinking 可以外包,哪些必须保留

落到实际操作上,怎么判断一件事该不该交给 AI?

可以分三类来看。

第一类:放心交出去。 特征是结果容易验证,过程本身不影响能力积累。格式转换、初稿生成、信息汇总、会议纪要、文档润色、常规代码模板、重复性的样例生成------这些任务的价值在结果,不在过程。能交给 AI 就交出去,省下来的时间花在更需要判断的地方。

第二类:AI 先做,人来审。 特征是 AI 能提高速度,但其中包含判断,而且错误的代价较高。技术方案、架构设计、需求拆解、复杂的优化、业务分析------这类事让 AI 提出候选方案,人来判断约束、风险、取舍和落地边界。审的过程本身就是 understanding 在运转。

第三类:必须保留亲手做的部分。 特征是过程本身会训练手感和判断力,长期外包会导致能力退化。新领域的早期学习、核心系统的关键链路、事故复盘、高风险决策、重要口径和定义的确立、复杂问题的根因分析、自己未来要长期负责的核心能力方向------这些事的价值恰恰在过程,不在结果。

一个简单的判断标准:学习期不能完全外包,关键期不能完全外包,后果由自己承担的事不能完全外包。

这个分类不只看任务类型,也看人的阶段。同一件事,对新手可能必须亲手做,对老手可以交给 AI;对边缘任务可以外包,对核心方向就要保留判断权。


八、Understanding 不是一劳永逸的

Understanding 不是存款,攒够了就可以一直花。它面临几种真实的风险。

它会过时。 多年深耕形成的判断力,在行业基本规则发生变化时可能变成包袱。过时的理解比没有理解更危险------因为它自带一种"我懂"的确定感,让人不愿意重新审视。所以 understanding 不只需要积累,也需要定期检查:我对这个领域的哪些深层假设,可能已经过期了?

选择在哪里深入是一个挑战。 Understanding 的培养成本很高------需要大量时间、需要实战经历、需要持续的深度注意力。一个人的认知带宽有限,不可能在所有领域都追求深度。在哪几个方向扎下去、其余的用 thinking 工具应付------这个选择本身,可能是 AI 时代每个人要做的最重要的一个判断。

组织层面还有传承的问题。 一个人的 understanding 只在他自己脑子里,他一走就没了。传统上靠师徒制------新人跟着老人在共同干活中耳濡目染。但如果 thinking 越来越多地交给 AI,老人和新人之间"一起动手"的机会就少了,这条传承的暗线也就断了。

组织要解决这个问题,不能只沉淀 SOP,还要沉淀判断过程:为什么当时选择了这个方案、排除了哪些看似合理的方案、真正担心的风险是什么、结果验证了哪个假设。AI 可以帮组织记录、整理、索引这些判断,但前提是有人愿意把隐性的判断说出来,也有人有机会参与真实问题的复盘。


九、回到那句话

Karpathy 引用的那句话------"你可以外包思考,但不能外包理解"------说到底不是关于 AI 的局限,而是关于人的根基。

当基础 thinking 变便宜,差距会从"谁做得快"转向"谁判断得准"。判断得准的人,能提出更好的问题,识别更危险的漏洞,拒绝更诱人的错误方向。

更深一层,understanding 决定一个人能不能保有自主性。没有理解,只能在 AI 给出的选项里挑选。有理解,才可能意识到题目本身就错了。

到最后,understanding 也是意义感的来源。人真正感到充实的时刻,往往不是完成了多少任务,而是发生在"我终于懂了"的那个瞬间。孔子说"朝闻道,夕死可矣"------"闻道"就是 understanding 发生的那个时刻。如果每天只是接收任务、转交 AI、验收结果、交付------高效,但"闻道"的机会越来越少,时间长了会空。

所以 AI 时代真正需要警惕的,不是把任务交给 AI,而是把自己的判断力也慢慢交出去。

最好的状态也许是:让 AI 承担更多 thinking,让自己承担更多理解、判断和复盘。

能分清哪些可以交出去,哪些必须亲自留下;能让 AI 扩大自己的能力,又不让自己的判断力空心化------这本身就是 AI 时代最重要的 understanding。


参考:Andrej Karpathy, Sequoia AI Ascent 2026 summary.

相关推荐
枫叶丹41 小时前
【HarmonyOS 6.0】CANN Kit 新增支持获取 AI 模型 Dump 维测数据功能详解
开发语言·人工智能·华为·信息可视化·harmonyos
计算机魔术师1 小时前
【职场观察 | 技术人处境】五一假期结束,职场两边同时加速——“简历热“和“优化潮“背后的结构性逻辑
人工智能·面试·职场和发展·cot 推理·技术人求职·ai替代逻辑
zhangfeng11336 小时前
国家超算中心 scnet.cn 跨用户文件分享流程总结 多个用户之间 文件共享 不需要反复下载上传
人工智能·语言模型·大模型
ting94520009 小时前
Tornado 全栈技术深度指南:从原理到实战
人工智能·python·架构·tornado
果汁华10 小时前
Browserbase Skills:让 Claude Agent 真正“看见“网页世界
人工智能·python
ZhengEnCi10 小时前
04-缩放点积注意力代码实现 💻
人工智能·python
HackTwoHub11 小时前
AI大模型网关存在SQL注入、附 POC 复现、影响版本LiteLLM 1.81.16~1.83.7(CVE-2026-42208)
数据库·人工智能·sql·网络安全·系统安全·网络攻击模型·安全架构
段一凡-华北理工大学11 小时前
【高炉炼铁领域炉温监测、预警、调控智能体设计与应用】~系列文章08:多模态数据融合:让数据更聪明
人工智能·python·高炉炼铁·ai赋能·工业智能体·高炉炉温
网络工程小王11 小时前
【LangChain 大模型6大调用指南】调用大模型篇
linux·运维·服务器·人工智能·学习