VAE中的负对数似然损失与自适应容忍度

stable diffusion中的vae并没有直接使用L1损失作为重建损失,而是采用了负对数似然损失,代码如下:

python 复制代码
rec_loss = torch.abs(inputs.contiguous() - reconstructions.contiguous())
nll_loss = rec_loss / torch.exp(self.logvar) + self.logvar
nll_loss = torch.sum(nll_loss) / nll_loss.shape[0]

其中self.logvar是一个可以学习的参数。

这里涉及到拉普拉斯分布,其概率密度函数如下

拉普拉斯与正太分布的区别如下,

不直接使用L1损失而采用负对数似然损失是因为考虑到对于纹理,边界这些变化比较剧烈的地方需要更大的容忍度,而不是要求图像完全还原像素。

而使用拉普拉斯不使用正太分布的愿意有以下几点。

(1) 对异常值的鲁棒性
  • 拉普拉斯分布的长尾特性

    拉普拉斯分布对远离均值的值(异常值)的惩罚是线性的(L1),而高斯分布的惩罚是二次的(L2)。

    • 实际意义:在图像生成任务中,某些像素可能存在较大的重建误差(如复杂纹理区域),使用 L1 损失对这些异常值的敏感度更低,模型优化更稳定。

    • 示例:若某个像素的误差为 10,L1 损失贡献为 10,L2 损失贡献为 100。拉普拉斯分布更容忍大误差,避免模型被少数异常像素主导。

(2) 稀疏性诱导
  • L1 正则化与稀疏性

    拉普拉斯分布作为先验时,会倾向于产生稀疏的重建误差(许多误差接近零,少数较大)。

    • 在生成模型中的应用:图像中大部分区域(如平坦背景)容易精确重建,误差集中在小部分复杂区域。拉普拉斯假设更符合这种特性。
(3) 建模非对称性与多模态的灵活性
  • 拉普拉斯分布的对称性限制

    尽管拉普拉斯分布是对称的,但其对误差的线性惩罚比高斯分布更能适应实际数据中非均匀的误差分布。

    • 对比高斯分布:高斯分布强加了一个平滑的二次惩罚,假设误差在所有区域均匀分布,这在真实数据中往往不成立。
相关推荐
居然JuRan21 小时前
AI工具"翻车"现场:为什么你学了那么多,还是用不好AI?
人工智能
科学创新前沿21 小时前
人工智能流体力学仿真专题学习
人工智能·cfd·流体力学
张哈大21 小时前
AI Ping 上新限免:GLM-4.7 与 MiniMax-M2.1 实测对比
人工智能·python
后端小肥肠21 小时前
27条作品涨粉77万?我用Coze破解了“藏经人”的流量密码
人工智能·aigc·coze
那雨倾城21 小时前
YOLO + MediaPipe 在PiscCode上解决多脸 Landmark 中「人脸数量固定」的问题
图像处理·人工智能·深度学习·yolo·目标检测·计算机视觉
MicroTech202521 小时前
MLGO微算法科技推出人工智能与量子计算融合新成果:基于QLSS与LCHS的量子DPM算法技术
人工智能·科技·算法
xwill*1 天前
pytorch中项目配置文件的管理与导入方式
人工智能·python
CodeCraft Studio1 天前
Stimulsoft报表与仪表板产品重磅发布2026.1版本:进一步强化跨平台、数据可视化、合规及 AI 辅助设计等
人工智能·信息可视化·报表开发·数据可视化·stimulsoft·仪表板·报表工具
AndrewHZ1 天前
【图像处理基石】[特殊字符]圣诞特辑:10+经典图像处理算法,让你的图片充满节日氛围感!
图像处理·人工智能·opencv·算法·计算机视觉·stable diffusion·节日氛围感
千匠网络1 天前
千匠大宗电商系统:赋能煤炭能源行业产业升级
大数据·人工智能·区块链·大宗电商·大宗电商系统