视频生成

阿钱真强道5 天前
aigc·animatediff·stable-diffusion·comfyui·视频生成·图生视频·单图转视频
19 基于 ComfyUI 工作流学习 AnimateDiff:单图生成视频的入门实践与问题分析AnimateDiff 是当前基于扩散模型实现图像动态化的重要方案之一,在 ComfyUI 生态中也已经形成了较为成熟的接入方式。对于初学者而言,单图生成视频是理解 AnimateDiff 工作机制的一个合适入口。
Rubin智造社6 天前
google·nvidia·视频生成·ai芯片·ai助手·workspace·安全治理
04月23日AI每日参考:Google推出AI芯片挑战Nvidia,Workspace升级AI助手今天AI圈有两件值得关注的事。其一,Google Cloud推出新一代AI芯片与Nvidia竞争,标志着AI芯片市场竞争加剧;其二,Google Workspace升级AI功能,让AI成为办公室"实习生",AI应用进入企业办公核心。10条精选资讯,带你快速掌握今日AI动态。
阿钱真强道15 天前
aigc·sdxl·stablediffusion·扩散模型·视频生成·sdv·图片生成
08 ComfyUI + SVD 系列(六)从 SDXL 到 SDV:为什么说视频生成本质上是“带时间维度的图片生成”?如果你已经用过 SDXL 生成图片,又开始接触 SDV 这类视频模型,那么你大概率会冒出这样一个想法:
CV-deeplearning16 天前
音视频·数字人·视频生成·infinitetalk·说话视频
美团 AI 开源!一段音频驱动无限时长说话视频,嘴唇/头部/表情全同步,支持 ComfyUI 一键部署一句话介绍:InfiniteTalk 是美团 MeiGen-AI 团队开源的音频驱动视频生成框架,基于 Wan2.1-14B 大模型,支持图片/视频转说话视频,无限时长生成,嘴唇、头部动作、身体姿态、面部表情全部跟着音频走。
杀生丸学AI1 个月前
人工智能·三维重建·扩散模型·具身智能·视频生成·世界模型·空间智能
【世界模型】video2world:从不一致视角重建世界标题:World Reconstruction From Inconsistent Views 来源:德国慕尼黑工业大学 链接:https://lukashoel.github.io/video_to_world
这张生成的图像能检测吗1 个月前
扩散模型·视频生成·可控交互动力学
(论文速读)InterDyn: 视频扩散模型的可控交互动力学论文题目:InterDyn: Controllable Interactive Dynamics with Video Diffusion Models(视频扩散模型的可控交互动力学)
顾道长生'1 个月前
视频生成·自回归·长视频生成
(CVPR-2025)从缓慢的双向视频扩散模型到快速的自回归视频扩散模型paper title:From Slow Bidirectional to Fast Autoregressive Video Diffusion Models
杀生丸学AI3 个月前
人工智能·扩散模型·具身智能·视频生成·世界模型·自回归·空间智能
【世界模型】AI世界模型的两次物理大考(测评)如果你让当今最先进的AI视频模型生成一段“冰块落入温水”的视频,你很可能会得到一个画质惊艳、光线完美、动态流畅的短片。它几乎能以假乱真。
极智-9963 个月前
人工智能·github·视频生成·终端工具·ai智能体·电子书管理·rust工具
GitHub 热榜项目-日榜精选(2026-02-02)| AI智能体、终端工具、视频生成等 | openclaw、99、Maestro等📅 热榜时间:2026-02-02 🏷️ 核心标签:#GitHub #开源项目 #AI智能体 #终端工具 #电子书管理 #视频生成 #Rust工具 📊 统计摘要:本期热榜包含 11 个 项目,覆盖 AI 智能体开发、终端交互、电子书管理、无限视频生成等多个热门领域,TypeScript 语言在 AI 智能体场景中应用广泛,轻量级工具与大型框架共同占据热榜席位。(GitHub)
传说故事3 个月前
人工智能·深度学习·音视频·视频生成
【论文自动阅读】视频生成模型的Inference-time物理对齐 with Latent World Model1.题目: Inference-time Physics Alignment of Video Generative Models with Latent World Models 2.时间: 2026.01 3.机构: FAIR, Meta Superintelligence Labs, University of Oxford, Mila-Québec AI Institute, Columbia University, McGill University, Canada CIFAR AI Chair
传说故事3 个月前
人工智能·视频生成
【论文自动阅读】快速视频生成的过渡匹配蒸馏1.题目: Transition Matching Distillation for Fast Video Generation 2.时间: 2026.01 3.机构: NVIDIA, NYU 4.3个英文关键词: Transition Matching, Distillation, Video Generation
传说故事3 个月前
人工智能·深度学习·视频生成
【论文自动阅读】Goal Force: 教视频模型实现Physics-Conditioned Goals1.题目: Goal Force: Teaching Video Models To Accomplish Physics-Conditioned Goals 2.时间: 2026.01 3.机构: Brown University, Cornell University 4.3个英文关键词: Video Generation, Physics Simulation, Visual Planning
仙魁XAN4 个月前
人工智能·ai·视频生成·豆包·即梦·森林治愈系
如何用豆包、即梦 AI ,快速实现“AI森林治愈系风格视频”的效果目录根如何用豆包、即梦 AI ,快速实现“AI森林治愈系风格视频”的效果一、简单介绍二、实现原理三、案例简单实现步骤
AI生成未来4 个月前
人工智能·aigc·扩散模型·视频生成
复刻“黑客帝国”子弹时间!SpaceTimePilot:视频变可操控4D游戏,倒放/变速/运镜随你掌控论文链接:https://arxiv.org/pdf/2512.25075 项目链接:https://zheninghuang.github.io/Space-Time-Pilot/
仙魁XAN4 个月前
ai·视频生成·即梦ai·图片生成·音画同出
如何使用即梦 AI,生成图片、并快速实现 veo3 音画同出的效果视频目录如何使用即梦 AI,生成图片、并快速实现 veo3 音画同出的效果视频一、简单介绍二、实现原理三、简单案例实现
这张生成的图像能检测吗4 个月前
人工智能·贪心算法·视频生成·多模态大语言模型
(论文速读)基于M-LLM的高效视频理解视频帧选择论文题目:M-LLM Based Video Frame Selection for Efficient Video Understanding(基于M-LLM的高效视频理解视频帧选择)
AI生成未来4 个月前
aigc·多模态·视频编辑·视频生成·世界模拟器·世界交互
超越Veo和Runway!可灵开源Kling-Omni:一个模型通吃视频生成、剪辑和多模态推理!论文链接:https://arxiv.org/pdf/2512.16776 体验链接:https://app.klingai.com/global/omni/new
HyperAI超神经4 个月前
人工智能·ai·音视频·视频生成·neurlps 2025
入选NeurIPS 2025,智源/北大/北邮提出多流控制视频生成框架,基于音频解混实现精确音画同步相较于文本,音频天然具备连续时间结构和丰富的动态信息,能够为视频生成提供更精细的时序控制。因此,随着视频生成模型的发展,音频驱动的视频生成也逐渐成为多模态生成领域的重要研究方向。目前,相关研究已覆盖说话人动画、音乐驱动视频以及音画同步生成等多个场景,但在复杂视频内容中,实现稳定且精确的音画对齐仍然具有较高难度。
今夕资源网4 个月前
人工智能·数字人·视频生成·ai工具·infinite talk·对口型图像转视频·无限时长
[AI工具]Infinite Talk数字人对口型图像转视频AI工具 支持无限时长视频生成Infinite Talk数字人对口型图像转视频AI工具 支持无限时长视频生成 InfiniteTalk AI:音频驱动的视频生成框架 InfiniteTalk AI是由 MeiGen AI 开发的先进音频驱动视频生成框架,
AI生成未来4 个月前
lora·视频生成·视频交互·视频理解·mm-dit
ICCV`25 | 视频交互“随心所欲”!复旦&通义万相等开源DreamRelation:让想象力从此无边界项目链接:https://dreamrelation.github.io/ 文章链接:https://openaccess.thecvf.com/content/ICCV2025/papers/Wei_DreamRelation_Relation-Centric_Video_Customization_ICCV_2025_paper.pdf 开源链接:https://github.com/ali-vilab/DreamRelation