AI 大模型的本质:基于大数据的拟合,而非创造
过去几年,"人工智能""大模型""AGI"成为最耀眼的技术名词。资本、媒体和产业叙事不断强化一种暗示:
AI 正在接近真正的智能,甚至可能成为文明的发动机。
但如果剥离叙事,只从数学、工程与物理约束出发,大模型的本质其实非常清晰------
AI 大模型,本质上是一个在海量数据上进行高维、非线性拟合的统计系统。
理解这一点,几乎可以解释当前 AI 的能力边界、商业困境以及估值泡沫。
一、从线性拟合到大模型:机制没有发生质变
在线性回归中,我们用一个简单模型去逼近数据关系:
y = wx + b
在神经网络与大模型中,这个公式被扩展为多层、非线性、高维的函数组合:
y = f(W_n f(W_{n-1} \\dots f(W_1 x)))
看似复杂,但核心目标始终一致:
最小化误差函数,使模型输出尽可能贴近已存在的数据分布。
无论是线性回归、深度神经网络,还是 Transformer,大模型并没有改变"在已知数据上逼近函数"的基本范式。
变化的只有三点:
- 参数数量变得极其庞大
- 数据规模变得极其庞大
- 计算成本变得极其庞大
机制本身,没有发生本质变化。
二、所谓"智能",只是统计意义上的最优预测
大模型在推理阶段做的事情并不神秘:
- 给定输入
- 在训练得到的概率空间中
- 选择"最可能的下一个输出"
这意味着:
- 它不会跳出训练数据所定义的世界
- 不会主动发现新的物理规律
- 不会提出违背既有统计结构的假设
它的"创造力",来自于组合已有信息的能力,而不是从未知中生成新知识。
这类能力在数学上有一个准确的描述:
组合新颖性(combinatorial novelty)
而不是
本体创新(ontological novelty)
三、算力与能源:无法绕开的物理天花板
要让拟合变得更"聪明",唯一已知的路径只有一条:
更多数据 × 更多参数 × 更多算力
这直接带来三个不可回避的约束:
1. 能源约束
每一次训练和推理,都在真实世界中消耗电力与散热能力。
2. 成本约束
模型能力的边际提升,成本却呈指数级上升。
3. 信息约束
新增数据的有效信息密度正在快速下降,重复拟合的比例越来越高。
这意味着,大模型并不具备传统软件那种"边际成本趋近于零"的特性。
它更像一种持续消耗能源的工业系统。
四、为什么大模型无法真正"创新"
真正的创新,至少需要满足以下条件之一:
- 引入新的信息源
- 发现新的因果结构
- 在现实世界中接受强反馈并被迫修正认知
而大模型具备的,是:
- 静态历史数据
- 离线训练
- 无真实生存代价的错误输出
因此它可以无限接近"人类已经知道的东西",
但无法跨出那一步,走向"人类尚未理解的领域"。
拟合器无法突破其拟合对象。
五、被误解的"涌现":规模效应,而非机制革命
当模型规模足够大时,确实会出现看似"突然出现"的新能力。
但这些现象本质上是:
- 高维统计结构被覆盖
- 低频模式被捕捉
- 表达更加连贯、连锁更长
这不是新机制的诞生,
而是同一机制在更大尺度下的表现。
就像湍流并没有违背牛顿定律。
六、结语:去神话,才能真正理解 AI
如果承认这一事实:
AI 大模型 = 高维、非线性、极度昂贵的数据拟合系统
那么很多问题会立刻变得清晰:
- 为什么算力和能源才是核心瓶颈
- 为什么商业模式难以支撑无限估值
- 为什么它更像工具,而不是主体
AI 的价值,并不在于"接近人类",
而在于作为放大器,加速既有知识与结构的传播和组合。
把拟合器当成拟合器,
才是对技术、对文明、也是对人类自身最清醒的尊重。