视频生成

杀生丸学AI4 天前
人工智能·扩散模型·具身智能·视频生成·世界模型·自回归·空间智能
【世界模型】AI世界模型的两次物理大考(测评)如果你让当今最先进的AI视频模型生成一段“冰块落入温水”的视频,你很可能会得到一个画质惊艳、光线完美、动态流畅的短片。它几乎能以假乱真。
极智-9964 天前
人工智能·github·视频生成·终端工具·ai智能体·电子书管理·rust工具
GitHub 热榜项目-日榜精选(2026-02-02)| AI智能体、终端工具、视频生成等 | openclaw、99、Maestro等📅 热榜时间:2026-02-02 🏷️ 核心标签:#GitHub #开源项目 #AI智能体 #终端工具 #电子书管理 #视频生成 #Rust工具 📊 统计摘要:本期热榜包含 11 个 项目,覆盖 AI 智能体开发、终端交互、电子书管理、无限视频生成等多个热门领域,TypeScript 语言在 AI 智能体场景中应用广泛,轻量级工具与大型框架共同占据热榜席位。(GitHub)
传说故事6 天前
人工智能·深度学习·音视频·视频生成
【论文自动阅读】视频生成模型的Inference-time物理对齐 with Latent World Model1.题目: Inference-time Physics Alignment of Video Generative Models with Latent World Models 2.时间: 2026.01 3.机构: FAIR, Meta Superintelligence Labs, University of Oxford, Mila-Québec AI Institute, Columbia University, McGill University, Canada CIFAR AI Chair
传说故事6 天前
人工智能·视频生成
【论文自动阅读】快速视频生成的过渡匹配蒸馏1.题目: Transition Matching Distillation for Fast Video Generation 2.时间: 2026.01 3.机构: NVIDIA, NYU 4.3个英文关键词: Transition Matching, Distillation, Video Generation
传说故事8 天前
人工智能·深度学习·视频生成
【论文自动阅读】Goal Force: 教视频模型实现Physics-Conditioned Goals1.题目: Goal Force: Teaching Video Models To Accomplish Physics-Conditioned Goals 2.时间: 2026.01 3.机构: Brown University, Cornell University 4.3个英文关键词: Video Generation, Physics Simulation, Visual Planning
仙魁XAN1 个月前
人工智能·ai·视频生成·豆包·即梦·森林治愈系
如何用豆包、即梦 AI ,快速实现“AI森林治愈系风格视频”的效果目录根如何用豆包、即梦 AI ,快速实现“AI森林治愈系风格视频”的效果一、简单介绍二、实现原理三、案例简单实现步骤
AI生成未来1 个月前
人工智能·aigc·扩散模型·视频生成
复刻“黑客帝国”子弹时间!SpaceTimePilot:视频变可操控4D游戏,倒放/变速/运镜随你掌控论文链接:https://arxiv.org/pdf/2512.25075 项目链接:https://zheninghuang.github.io/Space-Time-Pilot/
仙魁XAN1 个月前
ai·视频生成·即梦ai·图片生成·音画同出
如何使用即梦 AI,生成图片、并快速实现 veo3 音画同出的效果视频目录如何使用即梦 AI,生成图片、并快速实现 veo3 音画同出的效果视频一、简单介绍二、实现原理三、简单案例实现
这张生成的图像能检测吗1 个月前
人工智能·贪心算法·视频生成·多模态大语言模型
(论文速读)基于M-LLM的高效视频理解视频帧选择论文题目:M-LLM Based Video Frame Selection for Efficient Video Understanding(基于M-LLM的高效视频理解视频帧选择)
AI生成未来1 个月前
aigc·多模态·视频编辑·视频生成·世界模拟器·世界交互
超越Veo和Runway!可灵开源Kling-Omni:一个模型通吃视频生成、剪辑和多模态推理!论文链接:https://arxiv.org/pdf/2512.16776 体验链接:https://app.klingai.com/global/omni/new
HyperAI超神经1 个月前
人工智能·ai·音视频·视频生成·neurlps 2025
入选NeurIPS 2025,智源/北大/北邮提出多流控制视频生成框架,基于音频解混实现精确音画同步相较于文本,音频天然具备连续时间结构和丰富的动态信息,能够为视频生成提供更精细的时序控制。因此,随着视频生成模型的发展,音频驱动的视频生成也逐渐成为多模态生成领域的重要研究方向。目前,相关研究已覆盖说话人动画、音乐驱动视频以及音画同步生成等多个场景,但在复杂视频内容中,实现稳定且精确的音画对齐仍然具有较高难度。
今夕资源网2 个月前
人工智能·数字人·视频生成·ai工具·infinite talk·对口型图像转视频·无限时长
[AI工具]Infinite Talk数字人对口型图像转视频AI工具 支持无限时长视频生成Infinite Talk数字人对口型图像转视频AI工具 支持无限时长视频生成 InfiniteTalk AI:音频驱动的视频生成框架 InfiniteTalk AI是由 MeiGen AI 开发的先进音频驱动视频生成框架,
AI生成未来2 个月前
lora·视频生成·视频交互·视频理解·mm-dit
ICCV`25 | 视频交互“随心所欲”!复旦&通义万相等开源DreamRelation:让想象力从此无边界项目链接:https://dreamrelation.github.io/ 文章链接:https://openaccess.thecvf.com/content/ICCV2025/papers/Wei_DreamRelation_Relation-Centric_Video_Customization_ICCV_2025_paper.pdf 开源链接:https://github.com/ali-vilab/DreamRelation
AI生成未来2 个月前
aigc·视频编辑·视频生成
NeurIPS 2025 | 硬刚可灵1.5!阿里通义&清华等开源Wan-Move:指哪动哪的“神笔马良”论文链接:https://arxiv.org/pdf/2512.08765 项目链接:https://github.com/ali-vilab/Wan-Move
般若Neo2 个月前
视频生成·ai视频
AI视频生成技术原理与行业应用 - AI视频技术原理与架构AI视频技术正以数据驱动、模型赋能的方式重塑视觉内容创作,其背后是复杂的技术范式演进、精密的架构设计与高质量数据支撑。本文将基于北京大学相关研究内容,系统拆解AI视频生成的核心逻辑、技术架构、关键组件及训练数据核心要素,带大家全面理解这项革命性技术。
般若Neo2 个月前
视频生成·ai视频
AI视频生成技术原理与行业应用 - AI视频生成能力与突破AI视频生成技术正处于高速迭代的关键阶段,一边在分辨率、可控性等核心指标上实现突破性进展,具备了专业级应用潜力;一边仍面临时序一致性、物理逻辑等核心瓶颈。本文基于北京大学相关研究成果,系统梳理AI视频生成的能力现状、评估体系与主流模型,为行业探索与实际应用提供参考。
般若Neo2 个月前
视频生成·ai视频·行业应用
AI视频生成技术原理与行业应用 - AI视频行业应用现状AI视频生成技术已不再是局限于实验室的前沿探索,而是深度渗透到影视娱乐、营销、文旅、教育、医疗、新闻媒体等多个领域,从单一的创意辅助工具,升级为驱动行业全流程重构的核心引擎。其核心价值集中在“降本增效”与“创意赋能”,既系统性改变了行业成本结构,也催生了全新的内容形态与商业模式。
HyperAI超神经2 个月前
人工智能·ai·开源·编程语言·向量数据库·视频生成·视觉理解
活动回顾丨 北大/清华/Zilliz/MoonBit共话开源,覆盖视频生成/视觉理解/向量数据库/AI原生编程语言当下,AI 产业正迎来一个前所未有的发展周期。大模型的规模化应用、AI 原生软件体系的重构、多模态基础模型的加速演进,让学界与产业界的边界变得愈发模糊。无论是视频生成对音画同步的精细化要求、终端侧视觉模型的高效推理优化,还是新一代 AI 原生编程语言的出现,都在推动一个清晰的趋势——产研协同与开源生态,正在成为 AI 时代最关键的创新范式。
OpenBayes2 个月前
人工智能·深度学习·数据集·图像识别·语音合成·图像生成·视频生成
VibeVoice-Realtime TTS重构实时语音体验;覆盖9大真实场景,WenetSpeech-Chuan让模型听懂川话公共资源速递5 个公共数据集:* VOccl3D 三维人体遮挡视频数据集* Spatial-SSRL-81k 空间感知自监督数据集
万里鹏程转瞬至2 个月前
prompt·aigc·视频生成
wan2.1-2.2 官方提示词改写(prompt extend)模块这里只分析中文结构的提示词。通过对于wan2.1与wan2.2两个版本,可以发现wan2.2的提示词质量更高,能体现I2V与T2V的任务差距。