前面提到过 指数描述的世界,各个维度不均衡的指数发展最终定义了缤纷世界的每一个实体,于是世界是一个动态范围极大的指数世界。
世界是指数的,世界的认知结构就一定要是对数的才能对冲,于是人脑对刺激的反应必须是对数的,这就是韦伯-费希纳定律:
S = k ⋅ ln ( I I 0 ) S = k \cdot \ln\left(\dfrac{I}{I_0}\right) S=k⋅ln(I0I)
其中 S 为主观感觉强度,I 为刺激强度, I 0 I_0 I0 为能引起感觉的刺激阈值,即,要让感觉增强一倍,物理刺激需要按指数级增长,而非线性增长。
它的本初为韦伯定律:
Δ I I = 常数 ( 韦伯分数 ) \dfrac{\Delta I}{I} = \text{常数} \quad (\text{韦伯分数}) IΔI=常数(韦伯分数)
其中 ΔI 为刚好能察觉的刺激增量,I 为原始刺激强度,即人能察觉的刺激变化比例(ΔI/I)大致恒定。
这定律我在 2018 年底有过一段探究,当时写了不少博客,本文不再赘述定律本身,而侧重它背后的主体和客体。
外界刺激的强度范围太大,进化的大脑只能对数压缩对刺激的感知,似乎是第一性的结论,对数感知,就是用最小的神经带宽,装下最大的世界范围。
当然,还有一个看起来与韦伯-费希纳定律相反的史蒂文斯幂定律, S = k ⋅ I n S=k\cdot I^n S=k⋅In ,但值得注意的是,它说的不是一回事,和韦伯-费希纳定律是互补关系,韦伯-费希纳的对数律描述底层分辨能力,而史蒂文斯的幂定律则描述高层主观感知,它正是经过对数大脑加工后的结果作为输入,两者是串联关系。
此外,大脑的能耗极高且体积大,这对能量分配和安全分娩带来了挑战,与自然契合的指数大脑会瞬间突破有限资源而过载,肉身崩溃,这反而成了最不适应的方式。
从算法的角度,指数世界的变化大多是乘性而非加性,而对数大脑将乘法变加法,这也印证了人类局部线性化的思维方式,而局部线性化正是构成指数世界的微分,也就是素描中的一笔。
现在来看学习。
学习是一个很好的习惯,而工科思维最拿手的学而不思,很遗憾地说,其积累学习曲线是一条对数曲线,即单位时间学习增量与时间成反比:
d L ( t ) d t = k t \dfrac{\text{d}L(t)}{\text{d}t}=\dfrac{k}{t} dtdL(t)=tk
其中 L(t) 为时刻 t 时习得的知识,k > 0 为学习效率系数。
直观理解就是知识越多,边际收益越低,越难再提升。积分求解:
L ( t ) = k ⋅ ln t + C L(t)=k\cdot\ln t+C L(t)=k⋅lnt+C
与韦伯-费希纳定律的形式完全一致。如果将学习看作对知识刺激的反应,这完全符合人脑的认知结构,但学习不仅仅受制于学习的主体,还受学习的客体,知识本身约束。
知识点之间不是孤立的,而是相互联系的,相对于入门知识的低熵,高密度,高信息增益特征,越往后学的知识,在孤立知识点之间建立联系所需的熵减强度越高,即越学效率越低,就是这个意思。即使拥有一部指数大脑,单位时间能塞进大脑的有效信息 ∝ 1 t \propto\dfrac{1}{t} ∝t1,从而自然导出对数曲线。
再看如今编程的人对 AI 的跟进式学习,实属在用对数大脑跟进 AI 指数爆发的信息,并将其低熵化,在学习的平台期试图突破,本就违背了自然界为大脑制定的对数法则。
从这个角度看,其对编程的人休息时间步进蚕食的后果,此处不谈。
学,跟不上,不学,怕别人学,于是共学,跟不上,再共学,这是一个学习的绞架,它会不断上劲。
结合整篇文字的论点,如果把大脑的认知结构从对数拉成线性的会如何,必然是时刻应激,丧失生存能力。
浙江温州皮鞋湿,下雨进水不会胖。