1. GPT的说法
认识事物的过程通常可以分为以下几个阶段:
1. 感知阶段:
- 这是认识事物的第一步,通过感官(视觉、听觉、触觉、味觉、嗅觉)接收外界信息。感知是对外部世界的直接观察和感受。
2. 注意阶段:
- 在感知之后,注意力会集中在特定的信息上,忽略其他无关的信息。这是为了更深入地关注所选择的信息。
3. 理解阶段:
- 在注意到信息后,进行解释、归纳和整合信息,以建立对事物的初步认识和理解。
4. 记忆阶段:
- 将理解的信息存储在记忆中,以便将来回顾、提取和使用。记忆有助于形成长期的认知模式。
5. 思考和推理阶段:
- 基于感知、注意、理解和记忆,进行思考、推理和分析,以加深对事物的认识并进行更深层次的理解。
6. 创造和应用阶段:
- 基于对事物的认知,可以进一步创造新的想法、解决问题或将认知应用到实际生活中。
7. 评估和反思阶段:
- 定期评估自己对事物的认知水平,并进行反思,以发现认知中的错误、不足或改进的空间。
这些阶段构成了认识事物的基本过程,帮助我们建立对世界的认知和理解。不同人可能在每个阶段的表现和处理方式有所不同,但这些阶段通常共同构成了认知活动的基本轨迹.
2. 山水理论
阶段1:
阶段2:
阶段1:
涌现性表达概括:
- 一个恰当的词语,一句恰当的话。 有一种特别的美感。能将之前领悟到不可名状的东西,
突然能恰当的表达出来,概括出来。
比如学习中的"去魅"这个词,非常好的表达出来由不懂,敬畏,害怕,担心到平平无奇,原来是这样,如此来去的如来。
殊途同归,
负熵
从log对着代码来学习是一种不错的方法,为啥了?很多时候能猜测出大概可能的样子,但是没有看过源码时,这是存在不确定性。大概知道和实际的实现存在1对多的情况。如果消除不确定性。
自然是看源码,看实现。将不确定性消除。所以负熵是学习+掌握一个东西的强力武器与方法。
非常类似薛定谔的猫,一旦进行观测,概率波塌缩,一切化为确定的,有去魅的魔力。(在学习XDM时,完成了几个角度来观测后,觉得大体了解了实现,许多东西串连了起来,一个事前觉得怪异的地方,突然变得非常合理,一些why得到解释,之前的一些话从没啥明显的印象到一下子知道为啥这么写,记得也更深刻了。再次感受到负熵的强大力量。但是直到我写下"薛定谔的猫","负熵"后,我想我进一步掌握了这种方法。它从模糊中独立出来,成为一个有名有姓的实体,不再那么飘渺不定)
1.知道它的优缺点,适用边界,出了问题知道怎么调试,定位问题,可改进优化的方向。
这个是用来评估对一个事物的掌握情况。
几个维度下来,如果有些点不行,说明还欠缺。
殊途同归,遍历性,各态历经性。
这个是一个有意思的地方。盲人摸象,无论从那个地方开始摸索,最终的拼图,你一块都不能少。
纵是走了很多弯路,该摸到的地方一个也不能少。就像我从外围学习了很多关于XDM知识。但是对着log和模拟器源码这一步,仔细分析地址什么的具体行为。直到我看到每一个reg级别的行为后。一开始我是想省掉这一步,因为大的东西我已经掌握了,narrow down已经差不多了。但是深入到非常底层的细节后,有些东西才串连起来,一些知识盲点也扫清了。一个why的问题也想明白了。至此,我脑子里浮出来"殊途同归"这个词。从top to bottom, 还是bottom to top这两者都不能少,不可能因为top了就能省掉bottom.
虽然路子是不同的,但是遍历性,各态历经性。什么时候遍历完,什么时候到一个阶段。
无论从哪一个点出来,图中节点,都必须遍历一次。最小信息熵,可能是我们唯一能省到的极限。