[大模型]视频生成-Sora简析

参考资料:

Sora技术报告https://openai.com/index/video-generation-models-as-world-simulators/4分钟详细揭密!Sora视频生成模型原理https://www.bilibili.com/video/BV1AW421K7Ut

一、概述

相较于Gen-2、Stable Diffusion、Pika等生成模型的前辈,Sora有更出众的一镜到底能力(超过60s)。一镜到底的实现中,难点在于让模型正确的理解两帧之间的逻辑性,使生成的视频具备连贯性。

二、Diffusion模型

Diffusion(扩散 模型),会基于随机过程,从噪声图像中逐步祛除噪声来满足生成满足要求的图像。分为两个部分:前向扩散反向扩散

前向扩散 会将一张清晰的图像逐步添加噪声,生成一张充满噪声的图像。而反向扩散则会从一堆噪声中逐步生成一张符合要求的清晰图片。通过反复迭代训练,模型能更好的从噪声中重建高质量的图像数据。

三、Transformer模型

这里的Transformer主要用于进行文本生成,而非图像识别领域的特征提取。当使用文本作为输入时,连续的文本会被token化,拆分为数个单词并附加位置信息。

接下来token会被编码器(Encoder) 转换为更抽象的特征向量,而解码器(Decoder) 则会根据特征向量来生成目标序列。需要注意的是,解码器会同时将特征向量已生成的文本 作为输入以保证上下文的连贯性

四、Diffusion Transformer模型

Diffusion Transformer (DiT)模型借鉴了二、三的优势,为了保证生成内容的连贯性和一致性,Sora引入了时空patch 的概念。类似于Transformer中的token,将原始视频通过视觉编码器被压缩为一组低维度特征向量。

通过这种方式,模型可以同时关注视频中对象在++当前帧++ 中的空间位置 和++整个视频++ 中的时间位置

得益于视觉编码器的压缩,Sora可以很简单的在低维空间中进行训练。经过训练后,Sora会根据噪声patch提示词 生成清晰的patch 。但这个patch实际上也是一个无法被人理解的低维表示。需要++解码器++将其还原成视频。

相关推荐
那个村的李富贵7 小时前
光影魔术师:CANN加速实时图像风格迁移,让每张照片秒变大师画作
人工智能·aigc·cann
腾讯云开发者9 小时前
“痛点”到“通点”!一份让 AI 真正落地产生真金白银的实战指南
人工智能
CareyWYR9 小时前
每周AI论文速递(260202-260206)
人工智能
hopsky10 小时前
大模型生成PPT的技术原理
人工智能
禁默11 小时前
打通 AI 与信号处理的“任督二脉”:Ascend SIP Boost 加速库深度实战
人工智能·信号处理·cann
心疼你的一切11 小时前
昇腾CANN实战落地:从智慧城市到AIGC,解锁五大行业AI应用的算力密码
数据仓库·人工智能·深度学习·aigc·智慧城市·cann
AI绘画哇哒哒11 小时前
【干货收藏】深度解析AI Agent框架:设计原理+主流选型+项目实操,一站式学习指南
人工智能·学习·ai·程序员·大模型·产品经理·转行
数据分析能量站11 小时前
Clawdbot(现名Moltbot)-现状分析
人工智能
那个村的李富贵11 小时前
CANN加速下的AIGC“即时翻译”:AI语音克隆与实时变声实战
人工智能·算法·aigc·cann
二十雨辰11 小时前
[python]-AI大模型
开发语言·人工智能·python