技术栈
扩散模型
_Meilinger_
18 小时前
人工智能
·
生成对抗网络
·
gan
·
扩散模型
·
图像生成
·
diffusion model
碎片笔记|生成模型原理解读:AutoEncoder、GAN 与扩散模型图像生成机制
前言:本篇博客简要介绍不同生成模型架构的图像生成原理,主要包括AutoEncoder、GAN 和 Diffusion Models 三类。
这张生成的图像能检测吗
6 天前
人工智能
·
深度学习
·
计算机视觉
·
文生图
·
扩散模型
(论文速读)DiffBlender:可组合和通用的多模态文本到图像扩散模型
论文题目:DiffBlender: Composable and versatile multimodal text-to-image diffusion models(可组合和通用的多模态文本到图像扩散模型)
scott198512
1 个月前
扩散模型
·
生成式
·
世界模型
GSFix3D
paper来源GSFix3D: Diffusion-Guided Repair of Novel Views in Gaussian Splatting
这张生成的图像能检测吗
2 个月前
人工智能
·
深度学习
·
神经网络
·
计算机视觉
·
扩散模型
·
综述
·
网络构架设计
(综述)扩散模型设计基础深度解析:从三大组件到未来趋势
论文题目:On the design fundamentals of diffusion models: A survey(扩散模型的设计基础综述)
归去_来兮
3 个月前
扩散模型
·
diffusion model
扩散模型(Diffusion Model)原理概述
扩散模型(Diffusion Model)是一种生成模型,受热力学中扩散过程的启发,通过模拟数据从噪声中逐步去噪的过程来生成样本。其核心思想是渐进式地添加噪声(正向过程)和逐步去噪(反向过程)。 在正向过程中,逐步向数据中添加高斯噪声,最终将数据转化为纯噪声;在反向过程中,学习如何从噪声中逐步去噪,恢复出原始数据分布。
音视频牛哥
3 个月前
人工智能
·
计算机视觉
·
ai
·
音视频
·
实时音视频
·
扩散模型
计算机视觉的新浪潮:扩散模型(Diffusion Models)技术剖析与应用前景
近年来,扩散模型(Diffusion Models, DMs)迅速崛起,成为计算机视觉领域最令人瞩目的生成模型之一。从生成高质量图像到风格迁移、图像修复,再到文本驱动图像生成(如 DALL·E 2、Stable Diffusion、Midjourney),扩散模型正以惊人的速度改变着视觉内容生成的格局。
Sherlock Ma
4 个月前
人工智能
·
深度学习
·
计算机视觉
·
aigc
·
音视频
·
扩散模型
·
视频生成
Seedance:字节发布视频生成基础模型新SOTA,能力全面提升
Seedance 1.0 是由字节跳动推出的高性能视频生成基础模型,旨在突破当前视频生成模型在指令遵循、运动合理性与视觉质量平衡方面的瓶颈。该模型通过多源数据整合与精准视频字幕生成,实现了跨多样化场景的全面学习;采用高效的架构设计,支持多镜头生成以及文本到视频和图像到视频任务的联合学习;通过细粒度监督微调和多维度奖励机制的强化学习,显著提升了模型性能;并借助多阶段蒸馏策略和系统级优化,实现了 10 倍的推理加速。
寻丶幽风
4 个月前
论文阅读
·
人工智能
·
笔记
·
扩散模型
·
流匹配
论文阅读笔记——FLOW MATCHING FOR GENERATIVE MODELING
Flow Matching 论文 扩散模型:根据中心极限定理,对原始图像不断加高斯噪声,最终将原始信号破坏为近似的标准正态分布。这其中每一步都构造为条件高斯分布,形成离散的马尔科夫链。再通过逐步去噪得到原始图像。 Flow matching 采取直接将已知分布(如白噪声)转换为真实数据分布来生成数据,并且 Flow 是基于 Normalizing Flow,故而是可微双射。生成过程中变化的概率密度构成一个集合,称为概率密度路径 p t p_t pt ,T 为路径长度。初始数据 x 0 ∼ p 0 ( x
寻丶幽风
4 个月前
论文阅读
·
笔记
·
文生图
·
扩散模型
·
t2i
论文阅读笔记——PixArt-α,PixArt-δ
PixArt-α 论文 仅使用 28400 美元,28M 训练数据,训练时长为 SD 1.5 的 10.8%,只有 0.6B 参数量,达到接近商业应用的水准。 现有数据集存在的缺陷:图文匹配偏差、描述信息不完整、词汇多样性不足(长尾效应显著)、低质量数据。 为了实现低成本训练,华为采用了三阶段的训练策略:第一个阶段是学习像素依赖关系,简单来说是先学习生成真实的图像,这里是用ImageNet数据集训练一个基于类别的条件扩散模型;然后是学习文本和图像的对齐,即学习文本作为条件下的图像生成,这里的一个关键是采用
Panesle
5 个月前
大模型
·
transformer
·
音频
·
扩散模型
·
文本生成音乐
ACE-Step:扩散自编码文生音乐基座模型快速了解
ACE-Step 是一款由 ACE Studio 和 StepFun 开发的新型开源音乐生成基础模型。它通过整合基于扩散的生成方式、Sana 的深度压缩自编码器(DCAE)以及轻量级线性变换器,在音乐生成速度、音乐连贯性和可控性等方面达到前所未有的高度,成功克服了现有方法的关键局限性。
wufeil
6 个月前
深度学习
·
扩散模型
·
分子生成
·
药物设计
·
aidd
·
药效团
·
静电势
基于电子等排体的3D分子生成模型 ShEPhERD - 评测
ShEPhERD 是一个由 MIT 开发的一个 3D 相互作用感知的 ligand-based的分子生成模型,以 arXiv 预印本的形式发表于 2024 年,被ICLR2025 会议接收。文章链接:https://openreview.net/pdf?id=KSLkFYHlYg
Jeremy_lf
6 个月前
人工智能
·
文生图
·
transformer
·
多模态
·
扩散模型
【图像生成之21】融合了Transformer与Diffusion,Meta新作Transfusion实现图像与语言大一统
论文:Transfusion: Predict the Next Token and Diffuse Images with One Multi-Modal Model
寻丶幽风
6 个月前
论文阅读
·
笔记
·
扩散模型
·
具身智能
·
双壁机器人
论文阅读笔记——RDT-1B: A DIFFUSION FOUNDATION MODEL FOR BIMANUAL MANIPULATION
RDT-1B 论文 模型表达与泛化能力:由于双臂操作中动作空间维度是单臂空间的两倍,传统方法难以建模其多模态分布。 数据:双臂数据少且不同机器人的物理结构和动作空间差异(如关节数、运动范围)导致数据分布不一致,直接合并训练可能引发负迁移(negative transfer)。
AI生成未来
6 个月前
扩散模型
·
图像生成
·
合成模型
MIT何恺明再次突破传统:分形递归架构引爆生成模型新纪元!
论文链接:https://arxiv.org/pdf/2502.17437 代码链接:https://github.com/LTH14/fractalgen
next_travel
6 个月前
风格迁移
·
扩散模型
注意力蒸馏技术
本周阅读了一篇25年二月份发表于CVPR 的论文《Attention Distillation: A Unified Approach to Visual Characteristics Transfer》,论文开发了Attention Distillation引导采样,这是一种改进的分类器引导方法,将注意力蒸馏损失整合到去噪过程中,大大加快了合成速度,并支持广泛的视觉特征迁移和合成应用。
小喵要摸鱼
6 个月前
开源
·
扩散模型
·
hugging face
·
diffusers 库
【Hugging Face 开源库】Diffusers 库 —— 扩散模型
Diffusers 是 Hugging Face 开源的 Python 库,专门用于加载、训练和推理扩散模型(Diffusion Models)。
东荷新绿
7 个月前
论文阅读
·
扩散模型
·
盲人脸复原
【CVPR-2023】DR2:解决盲人脸复原无法覆盖真实世界所有退化的问题
写在前面:本博客仅作记录学习之用,部分图片来自网络,如需引用请注明出处,同时如有侵犯您的权益,请联系删除!
杀生丸学AI
8 个月前
人工智能
·
3d
·
aigc
·
三维重建
·
扩散模型
·
高斯泼溅
【三维重建】FeatureGS:特征值优化的几何精度和伪影减少3DGS的重构
文章:https://arxiv.org/pdf/2501.17655 标题:FeatureGS: Eigenvalue-Feature Optimization in 3D Gaussian Splatting for Geometrically Accurate and Artifact-Reduced Reconstruction
LittleNyima
8 个月前
人工智能
·
笔记
·
深度学习
·
aigc
·
扩散模型
【笔记】扩散模型(一〇):Dreambooth 理论与实现|主题驱动生成
论文链接:DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation