使用AI后为什么思考会变得困难?

使用AI后为什么思考会变得困难?

我总结了四篇近期的研究论文,来展示AI是如何以及为什么侵蚀我们的批判性思维能力。

作者使用AI制作的图像

前言:作者在这篇文章中,借AI技术的崛起,揭示了一场悄然发生的思想博弈。表面上,AI为我们带来了前所未有的效率与便捷,但在无形之中,我们也正在放弃一些至关重要的东西------独立思考的能力。这不仅是一场关于技能与工具的讨论,更是一场深刻的哲学思辨:当AI代替我们思考,我们究竟是在进步,还是在退化?这篇文章带着批判与自省,引导我们重新思考人与技术、效率与思维、依赖与成长之间的微妙关系。当AI日益融入生活与工作,你是否还记得,真正让我们成为"人"的那些能力?

看,我承认,我搞砸了。

AI输出有时会让人失望,但这是一条双向街道。是的,模型有时会产生幻觉,表现不好。但你的提示质量很重要------有时候我也懒得仔细想。被AI的便利性诱惑,我会匆忙完成任务,发送未经检查的邮件和发布未经审核的内容。

现在我尽力三重检查每一件事。但那些疲惫的时刻呢?几百万年的进化并没有让人类具备AI那种机械一致性。

微软的这项研究震撼了我,暗示着频繁使用AI正在积极地重塑我们的批判性思维模式。有些群体会比其他群体更容易承受这种变化的冲击。

一篇2023年的论文预见了这一点,强调了在AI时代将变得至关重要的两项技能。猜猜是什么?

批判性思维和科学。

不是编程,不是数据分析,甚至不是AI工程。但就是那种把战略思维和机械执行区分开来的基本人类能力。

在这篇文章中,我们将探讨Gen AI如何悄悄地重塑我们的认知格局,利用最新的研究来绘制这种转变的地图。但更重要的是,我们将直面那些没人谈论的二阶效应。

因为在我们这个以利润为中心的世界里,谁会去思考日益扩大的技能差距呢?商业老板们会优先考虑这个问题吗?还是我们正走向一个未来,在那里我们正侵蚀那些使我们成为人类的能力?

我们开始吧?

让你不可替代的技能

所以,我们已经确认了AI正在搅动一切。那么,这对你的工作、你的技能、你的未来意味着什么呢?

OpenAI和宾夕法尼亚大学的研究人员决定深入探讨这个问题,他们在论文中写道:《对LLM在劳动力市场潜在影响的初步研究》。

当然,他们不是凭空猜测的。他们拿到了一个庞大的工作数据库,并分析了这些工作中涉及的任务(叫做O*NET)。然后,他们让人类和GPT-4分别评价每个任务使用AI后能提高多少速度。

他们专注于评估单个任务,而不是整个工作。可以这样理解:即使AI不能写完整的报告,能否帮助你检查语法错误?

这张表格才是真正有趣(并且与我们今天的话题相关)。把它看作是一个备忘单,揭示了哪些技能会变得不那么有价值,哪些技能会在AI时代变成你的超能力。

我们来简单明了地解析一下:

想象这张表格中的数字是这样的(我们会关注"β"列,这是一个很好的中等估计值):

• 正数(比如写作的0.467):越依赖这种技能的任务,AI影响的可能性越大。

• 负数(比如科学的-0.230在β列):越依赖这种技能的工作,AI影响的可能性越小。这就像是说,"日常任务越需要科学推理,这个任务越不容易受到AI的直接影响。"

• 更大的数字(无论是正数还是负数,离0越远):表示这种技能对工作的重要性与AI对该工作的影响之间的关系越强,越可预测。

我们来看一些关键技能及其分数:

• 写作(0.467):大正数=巨大的红旗。涉及大量写作的任务很可能会受到AI的影响。比如内容创作、报告写作,或者撰写邮件,也就是你很可能已经交给AI做的任务。

• 编程(0.623):更大的正数!如果你的工作涉及编程,那么......你应该已经在用GitHub Copilot或Cursor了。你最了解这点。这并不意味着程序员会消失,我们会在下一个部分讨论这个问题。

• 批判性思维(-0.196):负数。需要批判性思维的工作------分析信息、做出判断、解决没有明确答案的复杂问题------较不容易受到AI的影响。正如我之前所说,AI可以生成文本,但它还不能真正思考。

• 科学(-0.230):另一个负数!依赖科学方法、实验和深厚领域专长的工作相对安全。AI可以帮助数据分析,但它无法取代思考的部分。

这并不是"高技能"与"低技能"任务的对比,而是那些使人类成为人类的技能。

而涉及例行、公事、重复性任务的技能,即使需要培训(比如基础编程或写作公式化报告),也最容易受到威胁。

然而,一种残酷的讽刺正在浮现。那些帮助我们更"聪明"工作的工具正在悄悄地侵蚀我们最宝贵的认知防线。

让我们来看看证据。

用AI效率换取脑力劳动

技能格局正在发生变化。

是的,批判性思维、科学推理和复杂问题解决正变成你在AI驱动的世界中的盔甲。 但这在实践中到底意味着什么?Gen AI是如何改变我们思维方式的?有哪些取舍?

在我们深入探讨之前,我希望你做个小实验。打开你最喜欢的AI工具------ChatGPT、Gemini、DeepSeek,或你使用的任何工具。给它这个提示(根据你的具体角色稍作调整):

"我需要分析[你的职位名称]角色的批判性思维要求。

首先,根据行业标准预期,生成一个该职位的典型日常和每周任务的完整列表。然后,分析每个任务,并根据它需要多少:

• 分析复杂信息

• 独立判断

• 在没有明确解决方案的情况下解决问题

• 战略决策

将输出格式化为CSV,包含以下列:

任务、批判性思维评分、理由

按批判性思维评分降序排序。"

去吧,我等你......

结果与你自己的评估一致吗?无论如何,这都是一份很好的清单。这次小练习凸显了我们即将探讨的核心困境:AI的双刃剑。

讽刺。AI正在剥夺批判性思维

ChatGPT发布已有两年。从那时起,研究实验室已经开始绘制一个令人担忧的取舍:效率与思维能力。

我分析了三项揭示这一模式的关键研究:

• 《生成性AI对批判性思维的影响:知识工作者的自我报告的认知努力和信心影响》(Lee等,微软研究)

• 《技能差距扩大:生成性AI对初学者程序员的利与弊》(Prather等)

• 《AI工具在社会中的影响:对认知卸载和批判性思维未来的影响》(Michael Gerlich) Gen AI工具无疑是强大的。

例如,"GPT是GPT"研究发现,LLMs可以在相同质量水平下,平均加快15%的工作任务。通过一些额外的辅助工具,这一比例提高到47%至56%的任务。这是一个巨大的提升!《AI工具在社会中的影响》论文也得出结论,AI提供了"更高的效率和前所未有的信息访问"。

但有一个问题。

一些研究揭示了一个紧迫的问题。 他们发现,AI工具使用和批判性思维技能之间有着强烈的负相关(-0.68)。也就是说,使用AI工具越频繁,涉及批判性思维的程度就越低。

"生成性AI对批判性思维的影响"总结时指出: 此外,尽管GenAI可以提高工作效率,但它可能会抑制与工作的批判性参与。它可能导致对工具的长期过度依赖,削弱独立解决问题的能力。

稍微反思一下:

• 你上次真正与一个问题"搏斗"是什么时候?那个你需要深呼吸,集中精力完成的问题。 • 你多久验证一次AI提供的信息?

这不仅仅是关于AI,而是我们对AI的过度依赖。

做得少,做得更好

忘掉机器人全面抢占工作的过时想法。

这种转变是微妙而深刻的。

这是一个正在以指数级速度发生的变化,与Gen-AI工具的采用率完美契合。但它的变化如此渐进,以至于我们很多人甚至没有察觉。我们正在不自觉地适应一种新的工作方式。

想想你的日常。

• 你是否花更多时间编辑AI生成的草稿,从邮件到报告?

• 你是否仍然从头开始构建报告,还是专注于完善AI的分析?

• 你是自己写每一行代码,还是验证Copilot的建议并将其集成到更大的项目中?

这并不是完全由自动化取代工人的问题。一项研究将其称为从"物质生产"到"关键整合"的转变。你的角色正在从创作者逐渐转变为管理者、验证者和AI生成内容的策展人。

AI可以生成文本;但它(目前)还无法运用那些真正让文本变得有效和相关的细微判断。

因此,批判性思维就显得尤为重要。它让你能够评估AI输出的质量,识别偏见,发现错误,并将这些输出整合到更广泛、更复杂的上下文中。

我重新排列了研究中提到的这些能力顺序,把它变成一个迷你框架,方便你对照自己的工作流程进行检查:

1、任务管理(Task Stewardship):很多人在这里犯了错。

问题:你在使用生成式AI时,是否经常带着清晰的目标?

你是否能清楚界定AI的局限,并知道什么时候该由你接管?

2、信息验证(Information Verification):

你是否能区分可靠信息和AI生成的幻觉信息?

3、结果整合(Response Integration):

你能多快、多准确地把一段AI生成的内容无缝融入到你的整体工作中?简单地复制粘贴是行不通的。你需要判断AI输出是否符合你的目标,然后对输出进行调整,使其贴合最终结果。

以软件开发者的角色为例。我去年写过一篇文章,探讨AI是否提升了开发者的生产力:

《AI代码助手提升26%的生产力?请看小字部分》。

结合这篇文章和"鸿沟扩大"(Widening Gap)研究的发现,大多数资深开发者都遵循了上述三个步骤。他们先理解架构以及任务在其中的位置;然后,他们使用生成式AI工具来完成一个小的具体工作;最后,他们将其整合到现有代码库中。

而使用生成式AI的新手程序员,则遇到了以下元认知困难:

1、干扰(Interruption):

AI不断提供建议,打断他们的思考流程。

2、误导(Mislead):

AI把他们带入错误的方向,提供了不正确或无用的代码。

3、进阶困境(Progression):

即使AI提供了一个能运行的解决方案,他们依然很难理解背后的原理。

所以你看,现在想找到一份未来可持续的工作,比以往任何时候都更具挑战。

但你又有多自信,自己并没有过度依赖AI?那些刚入行的人又如何?他们是否正在掉入陷阱?对AI的过度信任,加上缺乏经验,甚至还有一点人类的懒惰,正在共同加剧这个"鸿沟"。

研究已经开始看到这些裂缝了。

更多AI使用 = 更少思考?

隐藏在表面之下的一个危险:虚假的安全感。我们自以为很擅长使用AI,但实际上我们使用AI的效果远没有我们想象的那么好,这之间存在着危险的脱节。

所有这些研究揭示了一个令人不寒而栗的"信心悖论":人们对AI能力越自信,越不愿意进行批判性思考。

两项独立研究中的数据表格,最能说明这个悖论。

请你想象一下,你正在驾驶一辆配备高度先进自动驾驶系统的汽车。这个系统几乎可以处理驾驶的所有环节。然而,最终负责的依然是你------驾驶员。我将这些"驾驶员"分为两类:一类是拥有强大批判性驾驶技能的人,另一类是批判性驾驶技能较弱的人。

表4:混合效应回归模型的非标准化系数 ------ 生成式AI对批判性思维的影响

具备强批判性思维技能的驾驶员:

• 有经验且善于反思的驾驶员,即使有自动驾驶系统,依然会持续监控道路和系统的行为,随时准备接管。(0.52*,反思倾向)

• 自信且技术娴熟的驾驶员,即使使用自动驾驶,依然保持参与,一旦需要,他们随时准备接手。(0.26*,对自身能力的信心)

• 能准确判断自动驾驶何时可能出错的驾驶员,更可能主动介入并纠正。(0.31*,对评估能力的信心)

不具备强批判性思维技能的驾驶员:

• 那些过于信任自动驾驶并认为它能应对一切的驾驶员,更不可能保持警觉,因而可能错过关键错误。(-0.69*,对AI的信任)

同样,另一项研究的数据也证明了完全相同的现象。

继续沿用我们的"汽车与高级自动驾驶系统"的比喻。下表解释了驾驶员对自动驾驶的整体使用情况(AI工具使用),与他们在驾驶决策中对其依赖程度(认知卸载)之间的关系。

表5. 相关矩阵 --- 社会中的AI工具

1、AI使用↑,认知卸载↑(r = 0.89):更多的自动驾驶使用,强烈导致对系统的更多依赖。因此,呈现出0.89的强正相关。

2、AI使用↑,批判性思维↓(r = -0.49):频繁使用自动驾驶,与核心驾驶技能的下降有关。-0.49的负相关反映了这一点。

总结:更多AI使用 → 认知卸载增加 → 批判性思维下降

也就是说,驾驶员对AI信任度越高,对道路的关注就越少。

我们乐于把思考外包出去,其实并不令人意外。我们正在让AI处理那些我们本可以自己完成,却主动选择不做的任务。如果AI是GPS,你是在学习路线,还是只是机械地听从每一个导航指示?

生成式AI如何加剧技能差距?

事实证明,"经验"比以往任何时候都更加重要,而这也正是"鸿沟不断扩大"的根源之一。

当然,这并不是说有经验就一定没问题,你仍然需要具备批判性思维。

想象一下,你刚毕业,拿到人生中的第一份工作,满怀热情,迫不及待想要证明自己。

但与此同时,你的经验还很欠缺。而你的资深同事们,则早已身经百战。

他们见过顺利推进的项目,更重要的是,他们也见过"惨案现场",并且熬夜收拾过烂摊子(当然,不是真的现场清理)。因此,资深人士往往会培养出一种"直觉"------什么行得通,什么行不通。

这正是Marvin Minsky所说的"负面专业知识(negative expertise)",这种直觉极其宝贵。

现在,把生成式AI也放进这个场景里。

对于有经验的员工来说,生成式AI的潜力是指数级的。他们用它来加速那些自己本就熟练掌握的任务。当AI开始"脱轨"时,他们能迅速察觉,因为他们具备"负面专业知识"------他们以前见过类似的错误。

但对新手来说,生成式AI却像雷区。他们可能过度依赖AI,无条件接受AI的建议,而对背后的原理缺乏真正的理解。这些新手更容易陷入"漂移(drifting)",正如"鸿沟扩大"研究中所描述的那样------不断在AI的建议之间来回切换,却几乎没有真正的进展。

他们缺乏一套完整的思维模型或框架,来有效地引导AI为自己所用。

研究人员观察到,许多使用生成式AI工具的新手程序员都表现出了"元认知困难(metacognitive difficulties)"------这个专业术语的意思其实很简单:他们很难意识到自己在如何思考**,缺乏"思考自己的思考"的能力。这些新手程序员具体表现为:

• 被打断:AI持续弹出的建议不断分散他们的注意力,严重干扰思路。

一名参与者说:"这些提示有时候真的很烦",

还有人说:"我正想个东西......算了,等下,这个是什么?"

• 被误导:AI提供的错误或无用建议,把他们引向了错误的方向。

• 困在循环里:他们无法理解AI生成的代码为什么能运行(或者为什么不能运行),

这暴露了他们基础知识薄弱的问题。

这些新手并非真的懒惰,他们往往是真的想学。但由于缺乏经验,他们很难有效地筛选和整合AI的输出。

很多使用AI却苦苦挣扎的程序员,以为自己理解了代码,即便代码是错的,他们依然觉得自己"掌握得不错"。AI的帮助给了他们虚假的信心,反而让他们更难意识到自己正在犯错。

教育鸿沟(补充说明):

这不仅仅是工作年限的问题,教育水平也起到了关键作用。一项研究发现,受教育程度更高的参与者,更倾向于交叉核对AI生成的信息。

受过更高教育的人通常更具怀疑精神,因此更容易运用批判性思维。这意味着,正式教育强调的分析和评估能力,或许能为人们提供一定程度的防护,防止对AI的过度依赖。

社会中某些群体被"去技能化"(deskilling)的风险,已经成为真实的隐忧。如果他们无法建立起扎实的基础知识和批判性思维能力,未来他们想要成功将变得越来越难。

拯救你自己,不要在梦游中走向未来

我已经给你描述了一个迫在眉睫的威胁:AI驱动的高效正在侵蚀你的批判性思维。

然而,真正的问题不是这件事是否正在发生,而是------你现在所处的位置,以及这种趋势会带来什么样的后果。

这不是某种抽象的学术争论(尽管我引用了不少研究)。

这是一个正在你我职业生涯中逐步裂开的深渊。

"轻松工作"悖论

你可能已经同意批判性思维的重要性,但现实是:很多岗位并不会直接奖励这种能力。

无论你是开发、市场、客服,还是其他岗位,是的,有些人在自己的职位上堪称战略天才。但更多的人只是按照流程操作,执行任务,依赖既有框架。

如果你的雇主现在已经乐意让AI完成你80%的任务,而你只负责"监督",那么,无论是对你自己,还是对你的雇主来说,还有什么动力去培养你的批判性思维能力?

激励错位(这是我最担心的)

当你因为依赖AI提升效率而逐渐丧失批判性思维时,你的公司真的会投资资源来帮你重新掌握它吗?

天啊,我当然见过企业里的"技能提升"项目。资源分配极度不均,质量也参差不齐。

或者,公司会不会发现:直接从那群越来越少的批判性思考者里挖人更便宜、更快捷、更省事?然后让剩下的人自己摸索?我是个现实主义者。利润永远优先于长期员工培养,这就是商业法则。

批判性思维,真的能"培训"出来吗?

理论上是有框架可用的,没错。

但如果你把自己定义为一个批判性思考者,我希望你认真思考这个问题:

你的批判性思维是从公司培训课上学到的吗?还是来源于你亲身经历的那些混乱局面,来源于你用科学方法一点点摸索出来的经验?这些东西,真的能在一个2小时的Zoom会议或1天的工作坊里复制出来吗?

对我个人而言,我的批判性思维来源于:我的STEM教育背景,我作为技术人的职业经历,以及那些跟伴侣一起熬夜讨论战略的夜晚。

教育的回声

高等教育似乎与更强的批判性思维能力存在某种相关性。

但这是教育本身带来的,还是因为本来能接受高等教育的人就具备更强的思辨能力?

而且,STEM背景的人,是否真的更有优势?如果答案是肯定的,其他人应该怎么做才能缩小这种差距?

"经验"错觉

是的,经验很重要,特别是那种"负面专业知识"------知道什么是行不通的。

但如果你的经验来自一个长期压制批判性思维的岗位呢?如果你多年只是在按部就班执行别人制定的流程,把分析工作都交给AI,那这样的"经验",并不会自动把你变成一个批判性思考者。"经验"本身不是你的护身符,重要的是你经历的是什么样的经验。

我希望你重新审视自己的"经验"。

最后的思考

再强调一次,我并不反对AI。我支持技术进步。

但我对批判性思维和深入研究有太多热爱,绝不会允许AI把它们从我手里夺走。

如果有一天,我失去了独立思考的能力,那么活着还有什么意义?

你是在梦游着走向未来,还是愿意掌控自己的命运?当我们停止批判性思考时,这对我们的大脑会产生什么长期影响?如果你跟我一样在意这些,那你打算怎么保持自己的思维敏锐度?

希望我的这些问题,能让你看到这场技术革命背后那些意想不到的后果。别等到那个深渊宽得没人能跨过去才惊醒。

说到底,没有人会替你思考,也没有人会替你走这条路。

相关推荐
车载诊断技术1 小时前
人工智能AI在汽车设计领域的应用探索
数据库·人工智能·网络协议·架构·汽车·是诊断功能配置的核心
AuGuSt_812 小时前
【深度学习】Hopfield网络:模拟联想记忆
人工智能·深度学习
jndingxin2 小时前
OpenCV计算摄影学(6)高动态范围成像(HDR imaging)
人工智能·opencv·计算机视觉
Sol-itude2 小时前
【文献阅读】Collective Decision for Open Set Recognition
论文阅读·人工智能·机器学习·支持向量机
没事偷着乐琅3 小时前
人工智能 pytorch篇
人工智能·pytorch·python
邪恶的贝利亚3 小时前
Pytorch常用函数
人工智能·pytorch·python
Ironben3 小时前
看好 MCP,但用不了 Claude,所以做了一款 MCP 客户端
人工智能·claude·mcp
佛州小李哥3 小时前
构建逻辑思维链(CoT)为金融AI消除幻觉(保险赔付篇)
人工智能·科技·ai·金融·云计算·aws·亚马逊云科技
xilu04 小时前
MCP与RAG:增强大型语言模型的两种路径
人工智能·llm·mcp
阿正的梦工坊4 小时前
PyTorch 中的 nn.ModuleList 是什么?与普通列表有啥区别?
人工智能·pytorch·python