[大模型]视频生成-Sora简析

参考资料:

Sora技术报告https://openai.com/index/video-generation-models-as-world-simulators/4分钟详细揭密!Sora视频生成模型原理https://www.bilibili.com/video/BV1AW421K7Ut

一、概述

相较于Gen-2、Stable Diffusion、Pika等生成模型的前辈,Sora有更出众的一镜到底能力(超过60s)。一镜到底的实现中,难点在于让模型正确的理解两帧之间的逻辑性,使生成的视频具备连贯性。

二、Diffusion模型

Diffusion(扩散 模型),会基于随机过程,从噪声图像中逐步祛除噪声来满足生成满足要求的图像。分为两个部分:前向扩散反向扩散

前向扩散 会将一张清晰的图像逐步添加噪声,生成一张充满噪声的图像。而反向扩散则会从一堆噪声中逐步生成一张符合要求的清晰图片。通过反复迭代训练,模型能更好的从噪声中重建高质量的图像数据。

三、Transformer模型

这里的Transformer主要用于进行文本生成,而非图像识别领域的特征提取。当使用文本作为输入时,连续的文本会被token化,拆分为数个单词并附加位置信息。

接下来token会被编码器(Encoder) 转换为更抽象的特征向量,而解码器(Decoder) 则会根据特征向量来生成目标序列。需要注意的是,解码器会同时将特征向量已生成的文本 作为输入以保证上下文的连贯性

四、Diffusion Transformer模型

Diffusion Transformer (DiT)模型借鉴了二、三的优势,为了保证生成内容的连贯性和一致性,Sora引入了时空patch 的概念。类似于Transformer中的token,将原始视频通过视觉编码器被压缩为一组低维度特征向量。

通过这种方式,模型可以同时关注视频中对象在++当前帧++ 中的空间位置 和++整个视频++ 中的时间位置

得益于视觉编码器的压缩,Sora可以很简单的在低维空间中进行训练。经过训练后,Sora会根据噪声patch提示词 生成清晰的patch 。但这个patch实际上也是一个无法被人理解的低维表示。需要++解码器++将其还原成视频。

相关推荐
峙峙峙2 分钟前
线性代数--AI数学基础复习
人工智能·线性代数
weiwuxian7 分钟前
揭开智能体的神秘面纱:原来你不是"超级AI"!
人工智能
Codebee7 分钟前
“自举开发“范式:OneCode如何用低代码重构自身工具链
java·人工智能·架构
说私域19 分钟前
基于开源AI智能名片链动2+1模式的S2B2C商城小程序:门店私域流量与视频号直播融合的生态创新研究
人工智能·小程序·开源
Ronin-Lotus22 分钟前
深度学习篇---Yolov系列
人工智能·深度学习
静心问道1 小时前
GoT:超越思维链:语言模型中的有效思维图推理
人工智能·计算机视觉·语言模型
aneasystone本尊1 小时前
学习 Claude Code 的工具使用(三)
人工智能
szxinmai主板定制专家1 小时前
【精密测量】基于ARM+FPGA的多路光栅信号采集方案
服务器·arm开发·人工智能·嵌入式硬件·fpga开发
T__TIII1 小时前
Dify 自定义插件
人工智能·github
快起来别睡了2 小时前
LangChain 介绍及使用指南:从“会聊天”到“能干活”的 AI 应用开发工具
人工智能