生成不遗忘,「超长时序」世界模型,北大EgoLCD长短时记忆加持

北大等发布EgoLCD,解决长视频内容漂移难题

【导读】视频生成模型总是「记性不好」?生成几秒钟后物体就变形、背景就穿帮?北大、中大等机构联合发布EgoLCD,借鉴人类「长短时记忆」机制,首创稀疏KV缓存+LoRA动态适应架构,彻底解决长视频「内容漂移」难题,在EgoVid-5M基准上刷新SOTA!让AI像人一样拥有连贯的第一人称视角记忆。

随着Sora、Genie等模型的爆发,视频生成正从「图生动」迈向「世界模拟器」的宏大目标。

然而,在通往「无限时长」视频生成的路上,横亘着一只拦路虎------「内容漂移」(Content Drift)。

你是否发现,现有的视频生成模型在生成长视频时,往往也是「金鱼记忆」:前一秒还是蓝色瓷砖,后一秒变成了白色墙壁;原本手里的杯子,拿着拿着就变成了奇怪的形状;

对于第一人称(Egocentric)视角这种晃动剧烈、交互复杂的场景,模型更是极其容易「迷失」。

生成长视频不难,难的是「不忘初心」。

近日,来自北京大学、中山大学、浙江大学、中科院和清华大学 的研究团队,提出了一种全新的长上下文扩散模型EgoLCD,不仅引入了「类脑的长短时记忆」设计,还提出了一套全新的结构化叙事Promp方案,成功让AI在生成长视频时「记住」场景布局和物体特征。

**论文地址:**https://arxiv.org/abs/2512.04515

**项目主页:**https://aigeeksgroup.github.io/EgoLCD

在EgoVid-5M基准测试中,EgoLCD在时间一致性生成质量 上全面碾压OpenSora、SVD等主流模型,向构建具身智能世界模型迈出了关键一步!

核心痛点,AI为什么会「失忆」?

在长视频生成中,传统的自回归(AR)模型非常容易出现生成式遗忘

这就像让一个人蒙眼画画,画着画着就偏离了最初的构图。对于第一人称视频(如Ego4D数据集)来说,剧烈的相机抖动和复杂的手物交互,让这种「漂移」更加致命。

传统的Transformer虽然有注意力机制,但面对长序列,计算量呈二次方爆炸根本存不下那么多历史信息;而简单的滑动窗口又会丢掉早期的关键信息。

EgoLCD (Egocentric Video Generation with Long Context Diffusion) 将长视频生成重新定义为一个「高效且稳定的内存管理问题」。

长短时记忆系统 (Long-Short Memory)

EgoLCD 设计了一种类似人类大脑的双重记忆机制:

  • 长期记忆(Long-Term Sparse KV Cache): 不再傻傻地缓存所有Token,而是利用稀疏注意力机制,只存储和检索最关键的「语义锚点」(比如房间的布局、关键物体的特征)。这不仅大大降低了显存占用,还锁死了全局一致性。
  • 短期记忆(Attention+LoRA): 利用LoRA作为隐式记忆单元,增强短窗口注意力的适应性,快速捕捉当前视角的剧烈变化(如手的快速移动)。

一句话总结:长期记忆负责「稳」,短期记忆负责「快」。

记忆调节损失 (Memory Regulation Loss)

为了防止模型在训练时「偷懒」,团队设计了一种特殊的损失函数。它强制模型生成的每一帧,都要与从长期记忆库中检索到的「历史片段」保持语义对齐。

这就像给AI戴上了一个「紧箍咒」,一旦它生成的画面开始「胡编乱造」(漂移),Loss就会惩罚它,迫使它回归原本的设定。

结构化叙事提示 (Structured Narrative Prompting, SNP)

EgoLCD抛弃了简单的文本提示,采用了一种分段式的、包含时间逻辑的结构化剧本。

**训练时:**使用GPT-4o生成极其详尽的帧级描述,训练模型将视觉细节与文字严格对应。

**推理时:**SNP充当「外部显性记忆」,通过检索前序片段的Prompt,引导当前片段的生成,确保故事线和视觉风格的连贯。

性能炸裂

为了公正地评测「不遗忘」的能力,研究团队甚至专门开发了一套新指标------NRDP (Normalized Referenced Drifting Penalty),专门用来惩罚那些「虎头蛇尾」、越往后质量越差的模型。

实验结果显示:

**一致性碾压:**在NRDP-Subject(主体一致性)和NRDP-Background(背景一致性)上,EgoLCD取得了压倒性优势,漂移率极低。

**超越基线:**相比SVD、DynamiCrafter和OpenSora等顶流模型,EgoLCD在EgoVid-5M基准上的CD-FVD(时序连贯性)和动作一致性指标均为最佳。

**极长生成:**展示了长达60秒的连贯视频生成(如一名演讲者从黄昏讲到深夜),人物衣着、背景楼宇细节始终如一,没有发生形变!

通往具身智能的「黑客帝国」

EgoLCD不仅仅是一个视频生成模型,它更像是一个「第一人称世界模拟器」。

通过生成长时程、高一致性的第一人称视频,EgoLCD能够为具身智能(机器人)提供海量的训练数据,模拟复杂的物理交互和长序列任务(如做饭、修理)。

正如Sora让人们看到了世界模型的雏形,EgoLCD则让「通过视频教会机器人理解世界」的梦想,变得前所未有的清晰。

原文链接:生成不遗忘,「超长时序」世界模型,北大EgoLCD长短时记忆加持-36氪

相关推荐
亓才孓2 小时前
java中的Math.Radom拓展
开发语言·python·算法
霍田煜熙2 小时前
CBMS最新源码
算法
豌豆学姐2 小时前
Sora2 能做什么?25 秒视频生成 API 的一次接入实践
大数据·人工智能·小程序·aigc·php·开源软件
Cherry的跨界思维2 小时前
25、AI时代的数字生存战:爬虫与反爬虫的数据争夺全面解析
人工智能·爬虫·机器学习·python爬虫·python办公自动化·python反爬虫
测试人社区-千羽2 小时前
智能化测试:AI驱动的测试覆盖率提升方法论与实战路径
运维·人工智能·测试工具·程序人生·自动化·测试覆盖率
NAGNIP2 小时前
主流的激活函数有哪些?
算法
NAGNIP2 小时前
Self-Attention 为什么要做 QKV 的线性变换?又为什么要做 Softmax?
算法
龙腾AI白云2 小时前
图神经网络初探(1)
人工智能
躺柒2 小时前
读共生:4.0时代的人机关系02人机合作后
大数据·人工智能·机器人·人机交互·人机协作·人机对话