[大模型]视频生成-Sora简析

参考资料:

Sora技术报告https://openai.com/index/video-generation-models-as-world-simulators/4分钟详细揭密!Sora视频生成模型原理https://www.bilibili.com/video/BV1AW421K7Ut

一、概述

相较于Gen-2、Stable Diffusion、Pika等生成模型的前辈,Sora有更出众的一镜到底能力(超过60s)。一镜到底的实现中,难点在于让模型正确的理解两帧之间的逻辑性,使生成的视频具备连贯性。

二、Diffusion模型

Diffusion(扩散 模型),会基于随机过程,从噪声图像中逐步祛除噪声来满足生成满足要求的图像。分为两个部分:前向扩散反向扩散

前向扩散 会将一张清晰的图像逐步添加噪声,生成一张充满噪声的图像。而反向扩散则会从一堆噪声中逐步生成一张符合要求的清晰图片。通过反复迭代训练,模型能更好的从噪声中重建高质量的图像数据。

三、Transformer模型

这里的Transformer主要用于进行文本生成,而非图像识别领域的特征提取。当使用文本作为输入时,连续的文本会被token化,拆分为数个单词并附加位置信息。

接下来token会被编码器(Encoder) 转换为更抽象的特征向量,而解码器(Decoder) 则会根据特征向量来生成目标序列。需要注意的是,解码器会同时将特征向量已生成的文本 作为输入以保证上下文的连贯性

四、Diffusion Transformer模型

Diffusion Transformer (DiT)模型借鉴了二、三的优势,为了保证生成内容的连贯性和一致性,Sora引入了时空patch 的概念。类似于Transformer中的token,将原始视频通过视觉编码器被压缩为一组低维度特征向量。

通过这种方式,模型可以同时关注视频中对象在++当前帧++ 中的空间位置 和++整个视频++ 中的时间位置

得益于视觉编码器的压缩,Sora可以很简单的在低维空间中进行训练。经过训练后,Sora会根据噪声patch提示词 生成清晰的patch 。但这个patch实际上也是一个无法被人理解的低维表示。需要++解码器++将其还原成视频。

相关推荐
shayudiandian10 小时前
ChatGPT风格对话机器人搭建教程
人工智能·chatgpt·机器人
腾讯云开发者10 小时前
TVP首场香港活动重磅启幕,AI出海变革风向如何把握?
人工智能
wasp52010 小时前
Spring AI 代码分析(十)--Spring Boot集成
人工智能·spring boot·spring
AI即插即用10 小时前
即插即用系列 | 2025 MambaNeXt-YOLO 炸裂登场!YOLO 激吻 Mamba,打造实时检测新霸主
人工智能·pytorch·深度学习·yolo·目标检测·计算机视觉·视觉检测
BagMM11 小时前
DetLH论文阅读
人工智能·计算机视觉·目标跟踪
fundroid11 小时前
Androidify:谷歌官方 AI + Android 开源示例应用
android·人工智能·开源
居然JuRan11 小时前
大模型瘦身术:量化与蒸馏技术全解析
人工智能
艾莉丝努力练剑11 小时前
【优选算法必刷100题】第031~32题(前缀和算法):连续数组、矩阵区域和
大数据·人工智能·线性代数·算法·矩阵·二维前缀和
不去幼儿园11 小时前
【启发式算法】灰狼优化算法(Grey Wolf Optimizer, GWO)详细介绍(Python)
人工智能·python·算法·机器学习·启发式算法
remaindertime11 小时前
基于Ollama和Spring AI:实现本地大模型对话与 RAG 功能
人工智能·后端·ai编程