阿里出新招?一段音频就可以让你的照片张嘴唱歌

今日,阿里巴巴团队推出了其最新研究成果------EMO(Emote Portrait Alive)音频驱动的肖像视频生成框架,相关研究已经在arXiv发表。该技术能够仅通过一张静态图像和相关声音音频,创造出表情丰富且头部姿态多变的动态声音肖像视频。这标志着阿里巴巴在Animateanyone项目之后,再次在动态肖像视频生成领域取得了重要进展。


项目官网:EMO (humanaigc.github.io)

GitHub:GitHub - HumanAIGC/EMO


技术原理:

在其官网中公开的技术原理:

Overview of the proposed method. Our framework is mainly constituted with two stages. In the initial stage, termed Frames Encoding, the ReferenceNet is deployed to extract features from the reference image and motion frames. Subsequently, during the Diffusion Process stage, a pretrained audio encoder processes the audio embedding. The facial region mask is integrated with multi-frame noise to govern the generation of facial imagery. This is followed by the employment of the Backbone Network to facilitate the denoising operation. Within the Backbone Network, two forms of attention mechanisms are applied: Reference-Attention and Audio-Attention. These mechanisms are essential for preserving the character's identity and modulating the character's movements, respectively. Additionally, Temporal Modules are utilized to manipulate the temporal dimension, and adjust the velocity of motion.

整理出来大概就是以下五个步骤

①帧编码阶段:在整个框架的初步阶段利用ReferenceNet提取参考图像和运动帧中的特征。为后续的图像生成奠定基础。

②扩散过程阶段:在这一阶段,预先训练好的音频编码器处理音频嵌入,同时将面部区域掩码与多帧噪声结合,用以指导面部图像的生成。这一步骤是实现声音到视觉表现转换的关键。

③去噪操作:接下来,通过Backbone Network来进行去噪操作,以清晰地重现面部图像。这一网络是整个生成过程中的核心,确保生成图像的质量和准确性。

④注意力机制:在Backbone Network内部,应用了两种形式的注意力机制:Reference-Attention和Audio-Attention。前者主要用于保持角色的身份特征,后者则用于调节角色的动作和表情,确保音频和视觉表现的一致性。

⑤时间模块的使用:为了操纵时间维度,调整运动的速度,框架中还加入了时间模块。这一设计使得生成的视频不仅在视觉上吸引人,而且在动态展示上也更加自然流畅。

通过这些技术步骤,EMO框架能够根据静态图像和声音音频,生成具有丰富表情和头部姿势的动态声音肖像视频。


主要特点:

①高度自然与逼真的视频生成能力:EMO仅需音频输入(比如对话或唱歌)就能生成视频的先进能力,无需依赖于任何预录视频或3D面部模型。它以其卓越的细腻表现和高度逼真的输出,精确地复现了人类的面部动作和表情,甚至是细微的微表情和音频同步的头部动作。确保了视频帧的平滑过渡,有效避免了面部变形或帧抖动,极大提升了视频的整体质感。

②身份一致性与视频生成的稳定性:EMO能够在整个视频生成过程中维持人物的视觉一致性,使人物外观与初始参考图像紧密相连(依托FrameEncoding模块)。通过引入速度控制器和面部区域控制器等稳定性控制机制,显著提高视频生成的稳定性,减少视频崩溃的风险。

③灵活性与多样性:EMO还支持生成与输入音频长度相匹配的任意长度视频,它的训练数据集横跨多种语言和风格,涵盖了从中文、英文到现实主义等,展现了其对不同文化和艺术风格的广泛适应性。


个人观点

EMO不需要在预先录制视频片段或依赖3D面部模型的情况下,能够根据音频输入直接生成具有高表现力和逼真度的视频。具有较高的表现力和逼真度,并且能够补助到面部细微表情的差别,无论是在娱乐、教育、或者是直播等领域都具有一定的应用价值。

但是EMO在生成极其复杂或快速变化的表情和动作时,对于保持视频质量和稳定性仍旧存在一定的问题。并且在个人隐私和伦理问题上也需要进一步的考究。

相关推荐
王哈哈^_^24 分钟前
【数据集】【YOLO】【目标检测】口罩数据集,口罩佩戴识别数据集 1971 张,YOLO佩戴口罩检测算法实战训练教程。
人工智能·算法·yolo·目标检测·计算机视觉·ai·视觉检测
文火冰糖的硅基工坊44 分钟前
[人工智能-大模型-83]:模型层技术 - 前向预测:神经网络是如何产生涌现智能的?背后的本质是什么?
人工智能·深度学习·神经网络
taxunjishu1 小时前
西门子 1500 PLC 依托 Ethernet/ip 转 Modbus RTU联合发那科机器人优化生产流程
人工智能·区块链·工业物联网·工业自动化·总线协议
一介书生-0071 小时前
2025-10-27 Java AI学习路线
java·人工智能·学习
rengang661 小时前
AI辅助需求分析:AI大模型将自然语言需求转化为技术规格
人工智能·需求分析·ai编程·1024程序员节·ai智能体编程
子不语1801 小时前
深度学习——IDE之Jupyter
人工智能·深度学习·jupyter
AI小云2 小时前
【Python高级编程】类和实例化
开发语言·人工智能·python
格林威2 小时前
紫外工业相机入门介绍和工业检测核心场景
人工智能·数码相机·计算机视觉·目标跟踪·视觉检测
高洁012 小时前
【无标题】大模型-模型压缩:量化、剪枝、蒸馏、二值化 (2
人工智能·python·深度学习·神经网络·知识图谱
谈思汽车2 小时前
AutoSec Europe 2026 第二届欧洲汽车网络安全与数据安全峰会启动报名!
人工智能