当我开始怀疑自己是否真正理解了深度学习,也开始思考 AGI 时代我该成为什么样的人

一次关于「理解、反思与自我定位」的系统性问答整理

Q1:我已经学习了一段时间 PyTorch 和 CNN,但总觉得自己的理解偏浅,这是为什么?

"张量计算是为了从数据中提取模式,从而根据输入得到期望输出。"

这个表述并不错误 ,但它停留在功能层(What it does),而你内心真正追问的是:

  • 为什么这种结构能提取模式?
  • 模型内部究竟发生了什么?
  • 我是否只是"会用",而非"真正理解"?

这种"不满足感"并不意味着你理解力不足,而是说明你已经开始意识到:
现有解释无法覆盖你所感知到的复杂度。


Q2:那深度学习中,张量计算的本质到底是什么?

一个更接近事实、但不太"直觉友好"的答案是:

张量计算的本质,不是"理解数据",
而是在约束条件下,对高维表示空间进行可微的重排、投影与压缩。

在模型眼里:

  • 输入不是"图像"
  • 中间层不是"特征"
  • 输出不是"语义"

它们本质上都是高维向量空间中的点、子空间、方向与距离关系

CNN 不是在"看图",而是在做一整套几何操作:

  • 卷积:局部子空间上的线性变换(强结构先验)
  • ReLU:空间裁剪,制造非线性
  • 池化:牺牲精度换取不变性

当你还在用"人类语义"去解释一个"几何 + 优化系统"时,就会天然感到"理解不够深"。


Q3:那我该如何反思,才能真正走出这种思维困境?

关键不是"再学一个模型",而是反思方式的升级

一个有效的方法是,从三个层次系统性反思:

1️⃣ 算子级(Operator)

  • 这是线性还是非线性?
  • 几何上等价于什么?
  • 梯度是如何流动的?

2️⃣ 表示级(Representation)

  • 这一层改变了什么不变量?
  • 保留了什么,丢弃了什么?
  • 空间维度与信息密度如何变化?

3️⃣ 优化级(Optimization)

  • 为什么 SGD 能找到"有意义"的解?
  • 初始化、损失函数在约束什么?
  • 这是必然解,还是工程最优解?

当你开始系统性地质疑解释本身,你已经站在"理解跃迁"的门槛上。


Q4:最近大家都在说 AGI 即将到来,在这样的背景下,我应该学习什么样的思考模式?

首先要纠正一个危险前提:

❌「AGI 快来了,所以我要学得更快、更多」

真正发生的变化不是"算力竞赛",而是:

"可自动化认知"与"不可自动化认知"的边界正在被重新划定。

未来真正拉开差距的,不是执行能力,而是构造能力


Q5:什么是 AGI 时代更重要的思考模式?

可以总结为五类:

① 问题构造能力

不是"怎么解问题",而是:

  • 这个问题值不值得解?
  • 是否存在更高一层的表述?

② 表示与抽象能力

AGI 擅长在既定表示空间中搜索,

定义表示空间的人,仍然是人类

③ 长期因果思维

不仅看第一层效果,还要问:

  • 二阶、三阶后果是什么?
  • 谁为长期结果负责?

④ 人机协同思维

角色从:

  • 执行者 → 编排者
  • 写代码 → 设计认知流程

⑤ 价值与判断力

AGI 能生成、预测、模拟,

不能为价值选择负责