神经网络中log加替代直接乘的原因探索

这里尝试基于网络资料,探索神经网络里为什么常用log加,不直接乘的原因。

简单概括就是把乘法变加法,既好算、又稳定、还能求梯度。

1 对数把乘法变成加法

在模型里经常要算一堆概率连乘:

直接乘会有两个致命问题:数值下爆和溢出。

概率都在0~1之间,连乘几十次、上百次后,结果会小到 float 存不下,直接变成 0。

变成 0 后,没法求梯度、没法优化,后续模型训练就不再有效。

1.1 取log缓解下爆和溢出

取 log 后:

概率连乘变成了加法,数值稳定得多,不容易溢出。

1.2 计算梯度更简单

神经网络靠反向传播更新参数,需要导数。

1)对乘积求导,链式法则套很多层,容易出错,而且计算误差容易累积放大。

2)对和求导,由于是直接逐项求导,简单稳定,而且计算误差不容易累积放大。

所以损失函数、似然函数几乎都写成log 形式:

模型设计经常会用到最大化似然,最大化似然,给定条件下等价于最大化 log 似然。

这两者最优解完全一样,而且最大化 log 似然相比最大化似然容易计算。

2 常见转换场景示例

最大化乘积等价于最大化 log 和,而且变log加后代码简单,数值稳定不会下溢成 0,方便求导。

这里尝试给出多个这种 log 加转化场景的示例。

2.1 交叉熵损失

分类任务一般会采用如下损失函数:

其本质就是把概率乘积转成 log 求和。

2.2 极大似然估计

diffusion模型中会用到极大似然估计。

其实际代码实现则是

核心原因还是最大化 log 似然在最优解一致的情况下,更好计算,而且计算数值特征更稳定。

2.3 NLP困惑度

困惑度也采用类似思路,公式示例如下

整个计算过程全程在log空间,最后再exp转化回原始空间。

不经计算过程数值特征更稳定,减少溢出问题,而且计算方便快捷。

3 python代码示例

下面是可直接运行的 Python代码,对比了两种计算大数乘积的方法。

一种是直接相乘,另一种是利用对数性质(ln(a×b)=lna+lnb)来计算。

复制代码
import math

# 两个较大的数
a, b = 1e200, 1e200

# 方法 1:直接相乘 (会导致溢出,变成无穷大)
direct = a * b

# 方法 2:先取对数相加 (保持数值在可控范围内)
log_sum = math.log(a) + math.log(b)

print(f"直接相乘结果: {direct}")      # 输出: inf (溢出)
print(f"对数相加结果: {log_sum}")     # 输出: 921.034... (精确值)

运行结果如下所示

直接相乘结果: inf

对数相加结果: 921.0340371976183

inf在python中表示无穷,也就是实际不存在的数,此时一定发生了溢出。

直接乘a×b,结果inf (无穷大) ,发生数值溢出,导致计算失效。

采用Log加,即 ln(a)+ln(b),结果为921.03,相比原始巨大数数值的乘法,计算可控数值稳定。

也就是说,使用对数加法能避免精度丢失和溢出,是处理极小概率(连乘趋近于0)或极大数值(连乘趋近于无穷)的标准做法。⁡

reference


Log-sum-exp数值溢出如何避免?

https://ask.csdn.net/questions/9144558

相关推荐
飘落的数码折腾日记1 分钟前
你的AI Agent可能正在“叛变“ | 5类真实威胁与四层防御
人工智能
放羊郎10 分钟前
基于ORB-SLAM2算法的优化工作
人工智能·算法·计算机视觉
AI袋鼠帝41 分钟前
字节的技术决心,都藏在这个动作里
人工智能
AI袋鼠帝1 小时前
企微又偷偷进化AI,并开始不对劲了..
人工智能
工业机器人销售服务1 小时前
2026 年,探索专业伯朗特机器人的奇妙世界
人工智能·机器人
摆烂大大王1 小时前
AI 日报|2026年5月9日:四部门力推AI与能源双向赋能,AI终端国标出台,中国大模型融资潮涌
人工智能
萑澈1 小时前
编程能力强和多模态模型的模型后训练
人工智能·深度学习·机器学习
LaughingZhu1 小时前
Product Hunt 每日热榜 | 2026-05-08
人工智能·经验分享·深度学习·神经网络·产品运营
AI袋鼠帝1 小时前
体验完Trae送的AI硬件,有点上头..
人工智能
冬奇Lab2 小时前
RAG 系列(十三):查询优化——让问题问得更好
人工智能·llm