有点意思!腾讯 ARC Lab 最新发布的MiraData数据集,用于长视频生成,从这些方面做了clip分层描述……

最近小编网上冲浪时,被腾讯 PCG ARC Lab 新开源的文本-视频数据集------MiraData 吸引了目光。

这个数据集有多新?Readme在一天前刚更新完的那种,而且数据集有一大特点,是专门为长视频生成任务设计的大规模视频数据集 ,不仅提供了时长更长 的数据,还从视频主体、背景、风格等不同维度进行了非常详细的文本"分层"描述,关注视频生成的小伙伴不容错过!相信一定能给你启发,赶紧和小编一睹为快。

MiraData项目地址: github.com/mira-space/...

一、数据集概览

视频数据集在sora等视频生成大模型中发挥着至关重要的作用。然而,现有的文本-视频数据集在处理长视频序列捕获镜头过渡 方面往往存在不足。为了解决这些限制,腾讯 PCG ARC Lab 研究人员引入了MiraDataMi ni-So ra Data),这是一个专门为长视频生成任务设计的大规模视频数据集。

(MiraData 官方Demo Video,来源:Youtube www.youtube.com/watch?v=3G0...

MiraData 的主要特点

1. 长视频时长: 与以前的数据集不同,以前的数据集视频剪辑通常非常短(通常小于 6 秒),MiraData 专注于时长从 1 到 2 分钟不等未剪辑视频片段。这种延长的持续时间允许对视频内容进行更全面的建模。

2. 结构化描述: MiraData 中的每个视频都附有结构化描述 。这些标题从不同角度提供了详细描述,增强了数据集的丰富性。描述平均长度为349字,保证了视频内容的全面呈现。

数据集构成

在这次初始发布的版本中,MiraData 包含 57,803 个视频片段,总时长 1,754 小时,主要提供游戏城市/风景探索 两个场景。clip数量和视频时长如下所示:

2种场景内容

● 游戏场景:包含了丰富的游戏体验相关视频;

● 城市或自然景观场景:通过视频捕捉了多样的城市风貌和自然美景。

6种类型的描述

MiraData 中的每个视频都附有结构化描述,从以下6种不同角度进行了详细地描述,增强了数据集的丰富性:

主体描述(Main Object Description):描述视频中的主要目标或主体,包括它们在整个视频中的属性、动作、位置和运动。

背景(Background):提供有关环境或场景的信息,包括物体、地点、天气和时间。

风格(Style):涵盖艺术风格、视觉和摄影方面,如写实、赛博朋克、电影风格。

摄像机运动(Camera Movement):详细说明摄像机的平移、变焦或其他运动。

简短描述(Short Caption):一段简洁的摘要,描述视频的精髓,使用Panda-70M字幕模型生成。

密集描述(Dense Caption):一个更详尽和详细的、总结了上述五种类型的描述。

举个"栗子"

看1个官方提供的例子,就明白了,比如这个游戏视频

描述内容有:

主体描述

从玩家的视角出发,最初与一个对手搏斗,这一点可以从机械部件和玩家手部的特写镜头中得到证实。随后,焦点转移到一位老年女性身上,她最初表现出攻击性或防御性,高举着铲子,好像随时准备出击。接着她转身,带领玩家绕到一个木制结构的侧面,那可能是她的家。随着时间的推移,她的态度变得柔和,看起来像是在和玩家交谈,因为她放下了手中的铲子,姿态变得更加放松。

背景描述

背景描绘了郁郁葱葱的乡村环境,有一座木屋或棚屋,周围环绕着绿色植物、岩石和红色花朵。环境具有自然主义的感觉,晴朗的天空和日光表明这是白天的环境。背景中没有可见的其他人物或移动元素,这表明这是一个虽然与世隔绝但平静的地点。

风格描述

视觉风格是现实主义的,具有详细的角色模型、自然光照以及高度的环境细节,共同营造出一个沉浸式且令人信服的乡村环境,适合于电子游戏的背景设定。

镜头描述

相机视角在整个序列中始终与第一人称视点保持一致。初始画面表明了一场动态的斗争,伴随着快速的动作,而随后的画面则显示了玩家与女性互动时更为稳定的相机。镜头跟随女人移动,将她保持为焦点,并且拍摄角度会随着玩家视角的变化而变化,以保持女人在视野中,特别是当她移动和转身时。

简短描述

一个电子游戏角色站在房子前面。

密集描述

该视频序列展示了视频游戏角色在乡村环境中与不可玩角色 (NPC) 互动的第一人称视角。最初,玩家角色似乎正在与敌人或生物搏斗,如特写斗争和火花或余烬的存在所示。场景切换到玩家角色站在一位老年妇女面前,她以防御或威胁的姿势挥舞着铲子。该女子的表情和姿势表明她对玩家持警惕或对抗态度。随着视频的进展,这名女子似乎稍微放松了一点,放下了铲子并与玩家交谈,这一点从她不断变化的面部表情和肢体语言可以看出。

二、数据采集与标注

为了收集MiraData,研究团队首先手动选择不同场景下的YouTube频道。然后,使用PySceneDetect下载并分割相应频道中的所有视频。之后,选择了时长在1到2分钟之间的视频片段。对于超过2分钟的视频片段,他们将其分成多个2分钟的片段。最后,使用 GPT-4V 为视频剪辑添加描述。

GPT-4V 描述

研究团队测试了现有的开源视觉LLM方法和GPT-4V,发现GPT-4V 的描述在时间序列方面的语义理解上表现出更好的准确性和连贯性。它还可以更准确地描述主要主体和背景物体,减少物体遗漏和幻觉问题。因此,他们使用GPT-4V来生成密集描述主体描述背景描述镜头描述风格描述

Panda-70M 描述

为了平衡标注成本和描述准确性,他们为每个视频统一采样 8 帧,并将它们排列成一张大图像的 2x4 网格。然后,使用Panda-70M的描述模型为每个视频添加一句话描述,作为主要内容的提示,并将其输入到他们的微调 prompt 中。

通过将微调的提示和 2x4 大图像输入 GPT-4V,他们可以在一轮对话中高效地输出多个维度的描述。具体提示内容可以在caption_gpt4v.py中找到,欢迎大家贡献更多优质的文字-视频数据。

caption_gpt4v.py链接: github.com/mira-space/...

三、统计

数据集信息统计如下:

密集字幕的总文本长度统计

六种类型字幕的总文本长度统计

简短描述词云

密集描述的词云

四、数据集下载

作者提供的描述元文件,除了上述6种维度描述外,还提供了YouTube视频ID等相关信息:

● 元文件字段:

· index : 视频片段索引,由以下部分组成{download_idx}_{video_id}-{clip_id}

· video_id : YouTube 视频 ID

· start_frame : YouTube 视频的剪辑开始帧

· end_frame : YouTube 视频的剪辑结束帧

· main_object_caption:视频中主体描述

· background_caption : 视频背景描述

· style_caption:视频风格描述

· camera_caption : 镜头描述

· Short_caption:简短描述

· dend_caption:密集描述

· fps:用于提取帧的视频帧率

*你可以使用 start_frame/fps 或 end_frame/fps 获取开始和结束时间戳

另外,作者提供了视频下载并分割的脚本:

css 复制代码
python download_data.py --meta_csv miradata_v0.csv --video_start_id 0 --video_end_id 10631 --raw_video_save_dir miradata/raw_video --clip_video_save_dir miradata/clip_video

其中*--video_start_id和表示要下载的元文件的 --video_end_id*开始值和结束值。游戏场景范围为0至7416,城市/风景探索范围为7417至10631。download_idxindex

更多数据集,请访问OpenDataLab:opendatalab.org.cn/

相关推荐
NAGNIP6 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab7 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab7 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP11 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年11 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼11 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS11 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区12 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈12 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能
Ray Liang13 小时前
被低估的量化版模型,小身材也能干大事
人工智能·ai·ai助手·mindx