❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!
🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦
🎬 "设计师集体欢呼!斯坦福黑科技让笔记本GPU也能玩转AI视频生成"
大家好,我是蚝油菜花。你是否也经历过这些视频创作噩梦------
- 👉 想用AI生成动画,结果显存不足直接爆机
- 👉 生成的视频人物逐渐"变形",最后面目全非
- 👉 30秒的视频渲染一整天,改个细节又要重头再来...
今天要拆解的 FramePack ,正在颠覆视频生成规则!这个斯坦福开源的"显存魔术师":
- ✅ 笔记本友好:6GB显存就能跑13B模型,1800帧视频轻松驾驭
- ✅ 抗漂移黑科技:双向记忆法让生成人物不再"变脸"
- ✅ 实时预览:支持边生成边查看,创作效率提升10倍
已有动画团队用它1天做完季度项目,接下来将揭秘这套"平民级好莱坞特效"的技术内核!
FramePack 是什么

FramePack 是斯坦福大学推出的视频生成技术,通过创新的帧上下文压缩方法,解决了传统视频生成模型中的"遗忘"和"漂移"问题。该技术能让模型高效处理大量帧数据,同时保持较低的计算复杂度。
基于抗漂移采样技术和灵活的调度策略,FramePack 实现了在消费级硬件上实时生成高清视频的能力。仅需6GB显存即可在笔记本电脑GPU上运行,大幅降低了AI视频生成的技术门槛。
FramePack 的主要功能
- 低显存需求:仅需6GB显存即可运行,适合在笔记本电脑GPU上使用
- 高效的帧生成能力:基于13B模型30fps的帧率生成数千帧视频
- 快速生成:个人RTX 4090显卡的生成速度为2.5秒/帧(未优化)或1.5秒/帧(优化后)
- 实时预览:支持生成过程中实时查看视频效果,提升创作效率
FramePack 的技术原理
- 帧上下文打包:基于改变 Transformer 的 Patchify(分块)核大小,对不同重要性的帧进行不同程度的压缩。关键帧保留更多细节(如1536个token),次要帧则大幅压缩(如192个token)
- 抗漂移采样:引入双向记忆法,让模型在生成当前帧时既能参考最近的帧,也能回溯到初始帧的核心特征
- 灵活的调度策略:提供几何压缩、首帧优先和对称压缩三种模式,适应不同生成需求
- 计算复杂度恒定:通过压缩和调度策略,实现计算资源消耗与生成帧数无关
如何运行 FramePack
Windows安装
- 下载一键安装包(CUDA 12.6 + Pytorch 2.6)
- 解压后运行update.bat更新
- 使用run.bat启动程序
Linux安装
1. 安装Python 3.10环境
2. 执行以下命令安装依赖
perl
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
pip install -r requirements.txt
3. 启动GUI界面
python demo_gradio.py
使用指南

- 左侧上传图片并输入提示词
- 右侧查看生成的视频和潜在预览
- 视频会逐步生成,可以实时查看进度
资源
- 项目主页 :lllyasviel.github.io/frame_pack_...
- GitHub 仓库 :github.com/lllyasviel/...
❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!
🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 丰富的 AI 工具库 -> 每日更新 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦