现在的AI热潮,恰恰证明了这个世界就是个草台班子

好久没写文章了,最近有一些对 AI 的看法,不吐不快。这篇文章,也是在 GPT 基于一个粗糙的草稿的润色下完成的,配图也是 Agent 帮忙搞定的。看起来缺少一些我过往文章的一些文风,不过这对 AI 也并不是难事,算了,懒得喂给它学习了。整体也写的挺好的,能清楚表达意义,文字上没一个错别字,要知道以前手写文章时候,光改错别字、断句啥的都需要整理好久。好了,不再啰嗦,开启正文。

现在 AI 大模型的流行,某种程度上反而证明了:这个世界很多地方,本质上就是个巨大的"草台班子"

目前主流的 LLM(大语言模型),本质更像一个"超大规模的文本预测器":给定上文,去预测下一个最可能出现的词(更准确地说是 token),然后一个 token 接一个 token 地生成完整回答。

在生成过程中,得益于 Transformer 的注意力机制,模型会"回头看"前面哪些词更重要------也就是它会抓重点。这使得它对语言的把握明显强于传统 NLP。再加上对互联网公开知识的海量预训练,LLM 的每次迭代看起来都在向"智能"靠近一步。

但这并不等于它学会了"思考"。

更准确地说,它学到的是大量"推理文字的写法与套路" ,以及一些可泛化的模式,比如类比、归纳、分步求解等。因此它能输出看起来很像推理的内容,却仍然可能胡编乱造(幻觉),生成听上去合理但事实错误的结论。

这有点像一些逻辑不太好的人写文章:每个字都认识,读起来也顺,但连起来其实不知道在说什么。因为它并没有真正的逻辑思维能力

但这还不是最关键的问题。更要命的是:它缺乏持续的创新能力

人类能在物种进化中胜出,不只是因为会一代代模仿学习,更因为会创新------在总结规律的基础上提出新问题、发明新工具、开辟新路径。而现阶段的 AI 并不具备这一点。这也是为什么杨立昆并不认可"只靠文本训练"就能实现真正 AGI 的原因之一。

即便如此,LLM 的能力仍然强到"足够好用" ,甚至在很多场景里效果惊艳,超过了大量工作的真实要求。

比如程序员为什么都喜欢 Claude Code?很重要的原因是:这类模型训练时吸收了大量"人类解决编程问题的过程数据",例如 Stack Overflow、GitHub Issue 等。那些数据里不只是代码片段,还包含了程序员定位 bug、分析原因、尝试方案、权衡取舍的思路。模型通过学习这些内容,等于也"照着套路"学会了。

这意味着它在很多任务上可以达到中级程序员的水平,能相对独立地解决问题。

但它依然很难做出真正的创新。

例如,它并不会自己发现传统 DOM 操作开发视图的结构性问题,然后发明 React、Vue 这类框架来解决;它更多是在既有范式内堆代码、补功能。除非你明确提示,它才会进一步抽象、优化、重构。

同样,它也缺乏"自主的审美能力" :不知道什么是更好的工程实践、什么是更差的工程实践;很多时候能写出能跑的代码,但不一定能写出长期可维护、可演进的系统。

不过,这并不妨碍它替代大量初级程序员的工作。因为我刚才说的那种抽象能力与工程审美,现实中很多程序员也并不具备。

也正因为如此,LLM 的爆火从另一个角度说明:很多工作并没有想象中那么高大上。大量岗位的产出,本质上就是在既有模板、流程和经验里做"可用的拼装",靠模仿同事也能把事情糊弄过去。

这恰恰证明了:这世界就是个巨大的草台班子

相关推荐
2501_933329553 分钟前
企业舆情处置技术实践:基于AI的智能监测与申诉系统架构解析
人工智能·分布式·架构·系统架构
千寻girling14 分钟前
不知道 Java 全栈 + AI 编程有没有搞头 ?
前端·人工智能·后端
君科程序定做17 分钟前
多源遥感与深度学习视角下耕地识别与耕地监测的局限性、研究空白与科学问题
人工智能·深度学习
七夜zippoe18 分钟前
可解释AI:构建可信的机器学习系统——反事实解释与概念激活实战
人工智能·python·机器学习·可解释性·概念激活
东离与糖宝23 分钟前
Java 26+Spring Boot 3.5,微服务启动从3秒压到0.8秒
java·人工智能
Daydream.V35 分钟前
OpenCV高端操作——光流估计(附案例)
人工智能·opencv·计算机视觉
小码哥_常41 分钟前
Android开发:精准捕获应用的前后台行踪
前端
蜡台1 小时前
Vue 打包优化
前端·javascript·vue.js·vite·vue-cli
木斯佳1 小时前
前端八股文面经大全:快手前端一面 (2026-03-29)·面经深度解析
前端·宏任务·原型链·闭包
冬奇Lab1 小时前
一天一个开源项目(第60篇):IndexTTS - B 站开源的工业级零样本语音合成系统
人工智能·开源·资讯