【神经网络系列(高级)】神经网络Grokking现象的电路效率公式——揭秘学习飞跃的秘密【通俗理解】

【通俗理解】神经网络Grokking现象的电路效率公式

论文地址:

https://arxiv.org/abs/2309.02390

参考链接:

1\]https://x.com/VikrantVarma_/status/1699823229307699305 \[2\]https://pair.withgoogle.com/explorables/grokking/ ### 关键词提炼 #Grokking现象 #神经网络 #电路效率 #学习效率 #一般化解 #记忆化解 #临界数据集大小 ![在这里插入图片描述](https://img-blog.csdnimg.cn/img_convert/2906907751b33dc1db514fe1dd94f76e.gif) ### 第一节:Grokking现象的类比与核心概念 #### 1.1 Grokking现象的类比 > Grokking现象是神经网络中一个神秘的现象: 在训练初期,网络虽然训练精度完美,但泛化能力极差; > > 然而,在持续训练下,它突然实现了完美的泛化。 > > 这就像一位学生,开始时只能死记硬背答案,但在某个转折点后,他突然能够灵活运用知识,解决了所有问题。 #### 1.2 相似概念比对 * **机器学习中的过拟合与欠拟合**:过拟合指的是模型在训练数据上表现过好,但在新数据上表现不佳;欠拟合则是模型在训练数据和新数据上都表现不佳。Grokking现象可以被视为一种从过拟合到恰当拟合的转变。 * **神经网络学习曲线**:学习曲线描述了训练集和验证集准确率随训练轮次的变化。Grokking现象则是一个特别的学习曲线形态,即在长时间无显著改善后突然跳跃至高水平。 ![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/6b19c81de20d445a942fcb6d45e8d1b9.png) ### 第二节:Grokking现象的核心概念与应用 #### 2.1 核心概念 | 核心概念 | 定义 | 比喻或解释 | |------------------------------|----------------------------------------------|----------------------------------| | 一般化解 (Generalising Solution) | 能够有效泛化到新数据的神经网络参数配置。 | 类似于掌握了一种解题方法,能应用于各种题型。 | | 记忆化解 (Memorising Solution) | 仅通过记忆训练数据达到高训练精度的神经网络参数配置。 | 类似于死记硬背答案,换一套题就不会做了。 | | 电路效率 | 在相同参数规模下,不同参数配置产生的logits(模型输出)的大小,反映学习的难易程度。 | 就像电路中能量转换的效率,高效的电路能在同样输入下产生更多输出。 | #### 2.2 优势与劣势 | 方面 | 描述 | |----|-------------------------------------------| | 优势 | 提供了一种解释神经网络复杂学习行为的框架,帮助研究者更好地理解何时、如何优化模型。 | | 劣势 | Grokking现象的具体机制和触发条件仍不完全清晰,需要进一步实验验证。 | ### 第三节:公式探索与推演运算 #### 3.1 Grokking现象的假设公式 虽然原文献中没有直接给出具体的数学公式,但我们可以根据其核心思想构建一个简化的模型框架: GeneralisationEfficiency ( G ) = LogitOutput ( G ) ParameterNorm ( G ) \\text{GeneralisationEfficiency}(G) = \\frac{\\text{LogitOutput}(G)}{\\text{ParameterNorm}(G)} GeneralisationEfficiency(G)=ParameterNorm(G)LogitOutput(G) MemorisationEfficiency ( M ) = LogitOutput ( M ) ParameterNorm ( M ) \\text{MemorisationEfficiency}(M) = \\frac{\\text{LogitOutput}(M)}{\\text{ParameterNorm}(M)} MemorisationEfficiency(M)=ParameterNorm(M)LogitOutput(M) 其中, GeneralisationEfficiency ( G ) \\text{GeneralisationEfficiency}(G) GeneralisationEfficiency(G) 和 MemorisationEfficiency ( M ) \\text{MemorisationEfficiency}(M) MemorisationEfficiency(M) 分别代表一般化解和记忆化解的电路效率, LogitOutput \\text{LogitOutput} LogitOutput 表示在相同输入下,由不同参数配置产生的logits输出, ParameterNorm \\text{ParameterNorm} ParameterNorm 表示参数向量的范数,作为衡量参数规模的基准。 #### 3.2 公式推演与假设 根据假设,随着训练数据集的增大,记忆化解的效率会下降(因为记忆所有数据变得更为困难),而一般化解的效率则相对保持稳定或缓慢上升。因此,存在一个临界数据集大小 D c r i t i c a l D_{critical} Dcritical,使得: MemorisationEfficiency ( M D \> D c r i t i c a l ) \< GeneralisationEfficiency ( G D \> D c r i t i c a l ) \\text{MemorisationEfficiency}(M_{D \> D_{critical}}) \< \\text{GeneralisationEfficiency}(G_{D \> D_{critical}}) MemorisationEfficiency(MD\>Dcritical)\Dcritical) 在这个临界点之后,网络更倾向于学习到一般化解,从而实现Grokking现象。 #### 3.3 具体实例与推演 假设有两个神经网络配置A(记忆化解)和B(一般化解),在相同数据集上进行训练。初始时,A的配置使其能够快速记忆训练数据,而B则较为缓慢地学习。然而,随着数据集大小从100增加到10000,A的 MemorisationEfficiency \\text{MemorisationEfficiency} MemorisationEfficiency急剧下降,而B的 GeneralisationEfficiency \\text{GeneralisationEfficiency} GeneralisationEfficiency则稳步提升。在某个数据集大小(如5000)后,B的效率超过了A,导致网络突然展现出优秀的泛化能力,即发生了Grokking现象。

相关推荐
麻雀无能为力2 小时前
CAU数据挖掘实验 表分析数据插件
人工智能·数据挖掘·中国农业大学
时序之心2 小时前
时空数据挖掘五大革新方向详解篇!
人工智能·数据挖掘·论文·时间序列
.30-06Springfield3 小时前
人工智能概念之七:集成学习思想(Bagging、Boosting、Stacking)
人工智能·算法·机器学习·集成学习
说私域4 小时前
基于开源AI智能名片链动2+1模式S2B2C商城小程序的超级文化符号构建路径研究
人工智能·小程序·开源
永洪科技4 小时前
永洪科技荣获商业智能品牌影响力奖,全力打造”AI+决策”引擎
大数据·人工智能·科技·数据分析·数据可视化·bi
shangyingying_14 小时前
关于小波降噪、小波增强、小波去雾的原理区分
人工智能·深度学习·计算机视觉
码荼5 小时前
学习开发之hashmap
java·python·学习·哈希算法·个人开发·小白学开发·不花钱不花时间crud
书玮嘎5 小时前
【WIP】【VLA&VLM——InternVL系列】
人工智能·深度学习
猫头虎5 小时前
猫头虎 AI工具分享:一个网页抓取、结构化数据提取、网页爬取、浏览器自动化操作工具:Hyperbrowser MCP
运维·人工智能·gpt·开源·自动化·文心一言·ai编程
要努力啊啊啊6 小时前
YOLOv2 正负样本分配机制详解
人工智能·深度学习·yolo·计算机视觉·目标跟踪