【AI学习】扩散模型的一点思考:生成过程为什么要增加噪声项

前面学习了扩散模型,并做了总结PPT

其中有一个疑问:在生成过程中,就是下图的算法2中的第四步,为什么要在预测了噪声项后,Xt减去预测的噪声后,还有再叠加一个噪声项?就是增加的部分。

李宏毅的讲解中,指出,如果不增加这个噪声项,最后就无法有效生成图片。

这两天忽然想到,其实,在前向过程中,每一步都在叠加一个高斯噪声。而在反向过程,每一步都重新估计这个高斯噪声,然后减去预测的噪声,最终恢复图形。但是,看了公式推导我们知道,其实,每一步估计噪声,其实是估计的噪声的均值。如果每一步只是减去一个预测的噪声的均值,那反向过程的每一步就不是如前向过程一样去处理高斯噪声,毕竟均值是一个确定项。所以还要增加前面所说的噪声项目,让反向过程的每一步真正实现减去高斯噪声的目的。

相关推荐
王哈哈^_^1 天前
【完整源码+数据集】车牌数据集,yolov8车牌检测数据集 7811 张,汽车车牌识别数据集,智慧交通汽车车牌识别系统实战教程
人工智能·深度学习·yolo·目标检测·计算机视觉·毕业设计·智慧城市
IT_陈寒1 天前
JavaScript 性能优化实战:我从 V8 源码中学到的 7 个关键技巧
前端·人工智能·后端
大千AI助手1 天前
决策树悲观错误剪枝(PEP)详解:原理、实现与应用
人工智能·算法·决策树·机器学习·剪枝·大千ai助手·悲观错误剪枝
慕云紫英1 天前
面向AI的课堂改革(南京大学 陈道蓄教授)
人工智能·aigc·教育
汗流浃背了吧,老弟!1 天前
基于OpenAI与DashScope的AI知识面试模拟系统实现
人工智能·语言模型
长桥夜波1 天前
机器学习日报13
人工智能·机器学习
sensen_kiss1 天前
INT305 Machine Learning 机器学习 Pt.8 Bagging 和 Boosting
人工智能·机器学习·boosting
艾莉丝努力练剑1 天前
【Linux基础开发工具 (二)】详解Linux文本编辑器:Vim从入门到精通——完整教程与实战指南(上)
linux·运维·服务器·人工智能·ubuntu·centos·vim
草莓熊Lotso1 天前
《算法闯关指南:优选算法--位运算》--38.消失的两个数字
服务器·c++·算法·1024程序员节
Pluchon1 天前
硅基计划6.0 伍 JavaEE 网络原理
网络·网络协议·学习·tcp/ip·udp·java-ee·信息与通信