normalizing flows vs 直方图规定化

  • normalizing flows名字的由来

The base density P ( z ) P(z) P(z) is usually defined as a multivariate standard normal (i.e., with

mean zero and identity covariance). Hence, the effect of each subsequent inverse layer is

to gradually move or "flow" the data density toward this normal distribution (figure 16.4).

This gives rise to the name "normalizing flows."

因此,应该翻译为正态化流。

  • 描述

The forward mapping is sometimes termed the generative direction. The base density

is usually chosen to be a standard normal distribution. Hence, the inverse mapping is

termed the normalizing direction since this takes the complex distribution over x x x and

turns it into a normal distribution over z z z .

  • 本质

Normalizing flows is the only model that can compute the exact log-likelihood of a new sample. Generative adversarial networks are not probabilistic, and both variational autoencoders and diffusion models can only return a lower bound on the likelihood.

normalizing flows是分布到分布的映射,本质同直方图规定化,直方图本质是图像灰度的概率分布。

通过构造一个可逆的深度神经网络,并学习参数,然后通过正向映射过程近似概率分布或图像生成。

逆向的过程如同扩散模型正向加噪的过程,从复杂分布映射到简单的多元标准正态分布,异曲同工。

相关推荐
AI小云8 小时前
【机器学习与实战】回归分析与预测:线性回归-03-损失函数与梯度下降
机器学习
L.fountain10 小时前
机器学习shap分析案例
人工智能·机器学习
weixin_4296302610 小时前
机器学习-第一章
人工智能·机器学习
Cedric111310 小时前
机器学习中的距离总结
人工智能·机器学习
寒月霜华16 小时前
机器学习-数据标注
人工智能·机器学习
Godspeed Zhao20 小时前
自动驾驶中的传感器技术46——Radar(7)
人工智能·机器学习·自动驾驶
limengshi13839220 小时前
机器学习面试:请介绍几种常用的学习率衰减方式
人工智能·学习·机器学习
救救孩子把21 小时前
2-机器学习与大模型开发数学教程-第0章 预备知识-0-2 数列与级数(收敛性、幂级数)
人工智能·数学·机器学习
蒋星熠1 天前
如何在Anaconda中配置你的CUDA & Pytorch & cuNN环境(2025最新教程)
开发语言·人工智能·pytorch·python·深度学习·机器学习·ai
Hcoco_me1 天前
什么是机器学习?
人工智能·机器学习