【自由能系列(初级),论文解读】神经网络中,熵代表系统的不确定性,自由能则引导系统向更低能量的状态演化,而动力学则描述了系统状态随时间的变化。

神经网络中的熵、自由能与动力学

核心结论

神经网络在"学习"和"成长"过程中,熵、自由能以及动力学扮演着关键角色。
代表系统的不确定性,自由能 则引导系统向更低能量的状态演化,而动力学 则描述了系统状态随时间的变化。

这三者相互作用,共同影响神经网络的优化与表现。

参考文献:

(1) Jirsa, V.; Sheheitli, H. Entropy, Free Energy, Symmetry and Dynamics in the Brain. J. Phys. Complexity 2022, 3 (1), 015007. https://doi.org/10.1088/2632-072X/ac4bec.

几个公式

  • 信息熵: H ( p ) = − ∑ i p i log ⁡ p i H(p) = -\sum_{i} p_i \log p_i H(p)=−∑ipilogpi
  • 自由能(在信息论中的形式): F = E − T S F = E - TS F=E−TS,其中E为内能,T为温度,S为熵
  • 动力学方程(以Langevin方程为例): Q ˙ = f ( Q ) + η ( t ) \dot{Q} = f(Q) + \eta(t) Q˙=f(Q)+η(t),其中 f ( Q ) f(Q) f(Q)为确定性力, η ( t ) \eta(t) η(t)为随机噪声

【表格】神经网络中的熵、自由能与动力学

序号 概念/过程 公式/描述 影响 备注
1 信息熵 H ( p ) = − ∑ i p i log ⁡ p i H(p) = -\sum_{i} p_i \log p_i H(p)=−∑ipilogpi 表示系统的不确定性,是优化过程中的关键指标 信息熵衡量了网络参数分布的不确定性,低熵意味着参数分布更集中,模型更确定
2 自由能 F = E − T S F = E - TS F=E−TS 驱动系统向低能量状态演化,优化模型表现 在神经网络中,自由能最小化可视为模型训练的目标,通过调整参数减少预测误差
3 动力学方程 Q ˙ = f ( Q ) + η ( t ) \dot{Q} = f(Q) + \eta(t) Q˙=f(Q)+η(t) 描述网络状态随时间的变化,包括确定性和随机性成分 动力学方程模拟了神经网络在接收输入和产生输出过程中的动态行为
4 熵与自由能关系 信息熵减少 → 系统确定性增加 → 自由能降低 信息熵的减少意味着模型参数的分布更加集中,从而降低自由能,提高模型性能
5 动力学与自由能最小化 d F d t = d E d t − T d S d t \frac{dF}{dt} = \frac{dE}{dt} - T\frac{dS}{dt} dtdF=dtdE−TdtdS 系统状态的变化导致自由能的变化,优化算法通过调整状态来最小化自由能 在神经网络训练中,通过调整网络参数(即改变系统状态),实现自由能的最小化
6 预测编码框架 基于贝叶斯推断,生成模型预测外部世界,通过最小化预测误差来更新模型 预测编码框架结合了信息论和动力学,通过自由能最小化实现模型优化
7 等变矩阵与内部模型 网络结构导致等变矩阵,结构化流形上的流动代表内部模型 等变矩阵反映了网络结构的对称性,结构化流形上的流动则代表了网络对外部输入的内在表示
8 神经底层与概念整合 神经元交互形成宏观认知功能的基础,概念整合促进跨领域理论融合 神经底层提供了神经网络运作的微观基础,概念整合则促进了神经科学研究的全面发展

关键点关系描述

  1. 信息熵 是衡量系统不确定性的重要指标,在神经网络中反映了模型参数分布的不确定性。在训练过程中,随着模型性能的提升,信息熵逐渐降低,表示模型参数分布更加集中,预测结果更加确定。

  2. 自由能 是神经网络优化的目标函数 之一,它结合了系统的内能和熵 ,引导系统向低能量状态演化。在神经网络中,自由能最小化通常意味着预测误差的减少和模型性能的提升。

  3. 动力学方程 描述了神经网络状 态随时间的变化规律,包括确定性和随机性 两部分。确定性部分反映了网络结构的固有特性,而随机性部分则模拟了外部环境对网络的随机影响。通过调整动力学方程中的参数,可以实现神经网络对输入信号的动态响应和输出预测。

  4. 熵与自由能之间存在密切关系 。在神经网络中,信息熵 的减少通常伴随着自由能的降低,因为信息熵的减少意味着模型参数分布更加集中,从而减少了预测的不确定性,进而降低了自由能。

  5. 动力学过程与自由能最小化紧密相连。在神经网络训练过程中,优化算法通过调整网络参数来改变系统的状态轨迹,从而实现自由能的最小化。这一过程中,动力学方程描述了网络状态随时间的变化规律,为优化算法提供了必要的动态信息。

  6. 预测编码框架结合了信息论和动力学 。该框架基于贝叶斯推断 原理,通过生成模型来预测外部世界的变化,并通过最小化预测误差 来更新内部模型。在这一过程中,信息熵和自由能作为关键指标被用来评估模型的性能和优化方向。

  7. 等变矩阵和结构化流形 反映了神经网络结构的对称性 及其内在表示方式。等变矩阵 描述了网络结构在不同变换下的不变性特征;而结构化流形上的流动则代表了网络对外部输入的内在表示和处理方式。这些因素共同决定了神经网络的认知功能和性能表现。

  8. 神经底层作为神经网络的基础提供了微观层面的支持;而概念整合则促进了跨领域理论的融合和发展。这两方面因素共同推动了神经网络研究的深入和发展壮大。

参考文献

(1) Jirsa, V.; Sheheitli, H. Entropy, Free Energy, Symmetry and Dynamics in the Brain. J. Phys. Complexity 2022, 3 (1), 015007. https://doi.org/10.1088/2632-072X/ac4bec.

Keywords:神经网络, 信息熵, 自由能, 动力学, 预测编码, 等变矩阵

#神经网络 #信息熵 #自由能 #动力学 #预测编码 #等变矩阵

相关推荐
取酒鱼食--【余九】31 分钟前
rl_sar实现sim2real的整体思路
人工智能·笔记·算法·rl_sar
Jamence1 小时前
多模态大语言模型arxiv论文略读(111)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
归去_来兮1 小时前
图神经网络(GNN)模型的基本原理
大数据·人工智能·深度学习·图神经网络·gnn
爱吃饼干的熊猫1 小时前
PlayDiffusion上线:AI语音编辑进入“无痕时代”
人工智能·语音识别
SelectDB技术团队1 小时前
Apache Doris + MCP:Agent 时代的实时数据分析底座
人工智能·数据挖掘·数据分析·apache·mcp
Leinwin1 小时前
微软推出SQL Server 2025技术预览版,深化人工智能应用集成
人工智能·microsoft
CareyWYR2 小时前
每周AI论文速递(2506202-250606)
人工智能
点云SLAM2 小时前
PyTorch 中contiguous函数使用详解和代码演示
人工智能·pytorch·python·3d深度学习·contiguous函数·张量内存布局优化·张量操作
小天才才2 小时前
【自然语言处理】大模型时代的数据标注(主动学习)
人工智能·机器学习·语言模型·自然语言处理