【自由能系列(初级),论文解读】神经网络中,熵代表系统的不确定性,自由能则引导系统向更低能量的状态演化,而动力学则描述了系统状态随时间的变化。

神经网络中的熵、自由能与动力学

核心结论

神经网络在"学习"和"成长"过程中,熵、自由能以及动力学扮演着关键角色。
代表系统的不确定性,自由能 则引导系统向更低能量的状态演化,而动力学 则描述了系统状态随时间的变化。

这三者相互作用,共同影响神经网络的优化与表现。

参考文献:

(1) Jirsa, V.; Sheheitli, H. Entropy, Free Energy, Symmetry and Dynamics in the Brain. J. Phys. Complexity 2022, 3 (1), 015007. https://doi.org/10.1088/2632-072X/ac4bec.

几个公式

  • 信息熵: H ( p ) = − ∑ i p i log ⁡ p i H(p) = -\sum_{i} p_i \log p_i H(p)=−∑ipilogpi
  • 自由能(在信息论中的形式): F = E − T S F = E - TS F=E−TS,其中E为内能,T为温度,S为熵
  • 动力学方程(以Langevin方程为例): Q ˙ = f ( Q ) + η ( t ) \dot{Q} = f(Q) + \eta(t) Q˙=f(Q)+η(t),其中 f ( Q ) f(Q) f(Q)为确定性力, η ( t ) \eta(t) η(t)为随机噪声

【表格】神经网络中的熵、自由能与动力学

序号 概念/过程 公式/描述 影响 备注
1 信息熵 H ( p ) = − ∑ i p i log ⁡ p i H(p) = -\sum_{i} p_i \log p_i H(p)=−∑ipilogpi 表示系统的不确定性,是优化过程中的关键指标 信息熵衡量了网络参数分布的不确定性,低熵意味着参数分布更集中,模型更确定
2 自由能 F = E − T S F = E - TS F=E−TS 驱动系统向低能量状态演化,优化模型表现 在神经网络中,自由能最小化可视为模型训练的目标,通过调整参数减少预测误差
3 动力学方程 Q ˙ = f ( Q ) + η ( t ) \dot{Q} = f(Q) + \eta(t) Q˙=f(Q)+η(t) 描述网络状态随时间的变化,包括确定性和随机性成分 动力学方程模拟了神经网络在接收输入和产生输出过程中的动态行为
4 熵与自由能关系 信息熵减少 → 系统确定性增加 → 自由能降低 信息熵的减少意味着模型参数的分布更加集中,从而降低自由能,提高模型性能
5 动力学与自由能最小化 d F d t = d E d t − T d S d t \frac{dF}{dt} = \frac{dE}{dt} - T\frac{dS}{dt} dtdF=dtdE−TdtdS 系统状态的变化导致自由能的变化,优化算法通过调整状态来最小化自由能 在神经网络训练中,通过调整网络参数(即改变系统状态),实现自由能的最小化
6 预测编码框架 基于贝叶斯推断,生成模型预测外部世界,通过最小化预测误差来更新模型 预测编码框架结合了信息论和动力学,通过自由能最小化实现模型优化
7 等变矩阵与内部模型 网络结构导致等变矩阵,结构化流形上的流动代表内部模型 等变矩阵反映了网络结构的对称性,结构化流形上的流动则代表了网络对外部输入的内在表示
8 神经底层与概念整合 神经元交互形成宏观认知功能的基础,概念整合促进跨领域理论融合 神经底层提供了神经网络运作的微观基础,概念整合则促进了神经科学研究的全面发展

关键点关系描述

  1. 信息熵 是衡量系统不确定性的重要指标,在神经网络中反映了模型参数分布的不确定性。在训练过程中,随着模型性能的提升,信息熵逐渐降低,表示模型参数分布更加集中,预测结果更加确定。

  2. 自由能 是神经网络优化的目标函数 之一,它结合了系统的内能和熵 ,引导系统向低能量状态演化。在神经网络中,自由能最小化通常意味着预测误差的减少和模型性能的提升。

  3. 动力学方程 描述了神经网络状 态随时间的变化规律,包括确定性和随机性 两部分。确定性部分反映了网络结构的固有特性,而随机性部分则模拟了外部环境对网络的随机影响。通过调整动力学方程中的参数,可以实现神经网络对输入信号的动态响应和输出预测。

  4. 熵与自由能之间存在密切关系 。在神经网络中,信息熵 的减少通常伴随着自由能的降低,因为信息熵的减少意味着模型参数分布更加集中,从而减少了预测的不确定性,进而降低了自由能。

  5. 动力学过程与自由能最小化紧密相连。在神经网络训练过程中,优化算法通过调整网络参数来改变系统的状态轨迹,从而实现自由能的最小化。这一过程中,动力学方程描述了网络状态随时间的变化规律,为优化算法提供了必要的动态信息。

  6. 预测编码框架结合了信息论和动力学 。该框架基于贝叶斯推断 原理,通过生成模型来预测外部世界的变化,并通过最小化预测误差 来更新内部模型。在这一过程中,信息熵和自由能作为关键指标被用来评估模型的性能和优化方向。

  7. 等变矩阵和结构化流形 反映了神经网络结构的对称性 及其内在表示方式。等变矩阵 描述了网络结构在不同变换下的不变性特征;而结构化流形上的流动则代表了网络对外部输入的内在表示和处理方式。这些因素共同决定了神经网络的认知功能和性能表现。

  8. 神经底层作为神经网络的基础提供了微观层面的支持;而概念整合则促进了跨领域理论的融合和发展。这两方面因素共同推动了神经网络研究的深入和发展壮大。

参考文献

(1) Jirsa, V.; Sheheitli, H. Entropy, Free Energy, Symmetry and Dynamics in the Brain. J. Phys. Complexity 2022, 3 (1), 015007. https://doi.org/10.1088/2632-072X/ac4bec.

Keywords:神经网络, 信息熵, 自由能, 动力学, 预测编码, 等变矩阵

#神经网络 #信息熵 #自由能 #动力学 #预测编码 #等变矩阵

相关推荐
FairyGirlhub22 分钟前
神经网络的初始化:权重与偏置的数学策略
人工智能·深度学习·神经网络
大写-凌祁4 小时前
零基础入门深度学习:从理论到实战,GitHub+开源资源全指南(2025最新版)
人工智能·深度学习·开源·github
焦耳加热5 小时前
阿德莱德大学Nat. Commun.:盐模板策略实现废弃塑料到单原子催化剂的高值转化,推动环境与能源催化应用
人工智能·算法·机器学习·能源·材料工程
深空数字孪生5 小时前
储能调峰新实践:智慧能源平台如何保障风电消纳与电网稳定?
大数据·人工智能·物联网
wan5555cn5 小时前
多张图片生成视频模型技术深度解析
人工智能·笔记·深度学习·算法·音视频
格林威6 小时前
机器视觉检测的光源基础知识及光源选型
人工智能·深度学习·数码相机·yolo·计算机视觉·视觉检测
今天也要学习吖6 小时前
谷歌nano banana官方Prompt模板发布,解锁六大图像生成风格
人工智能·学习·ai·prompt·nano banana·谷歌ai
Hello123网站6 小时前
glean-企业级AI搜索和知识发现平台
人工智能·产品运营·ai工具
AKAMAI7 小时前
Queue-it 为数十亿用户增强在线体验
人工智能·云原生·云计算
索迪迈科技7 小时前
INDEMIND亮相2025科技创变者大会,以机器人空间智能技术解锁具身智能新边界
人工智能·机器人·扫地机器人·空间智能·陪伴机器人