# 😱,AI自动生成口型,视频嘴型自动同步

今日看了一些对嘴的视频,觉得很好玩,遂来记录更新一番。本文主要讲述现在一些平台上AI翻译换嘴型换语言的AI模型Wav2Lip视频融合语音技术。

介绍

Wav2Lip是一个开源工具,它是一种神经网络可以让视频中的人说话时的嘴唇的动作和音频的内容保持一致,根据语音调整嘴唇的变化,使得生成的视频人物口型跟输入的语音同步。

适用于 任何人脸、任何语言、可以无缝地与原始视频融合,还可以匹配转动的脸型的口型。

霉霉说英文中文配音视频:(这个是剪映完成的,通过剪映-识别字幕-翻译中文-找个声音读出来,当然最后你自己配音也是没问题的。)

使用教程

准备工作

1、本地环境需要python环境: python3.6

2、需要音视频处理工具ffmpeg: sudo apt-get install ffmpeg

3、从远程git仓库中复制Wav2Lip模型下载到本地:

scss 复制代码
git clone git@github.com:Rudrabha/Wav2Lip.git

4、在下载下来的文件根目录打开终端运行pip install -r requirements.txt

5、点击下载人脸检测训练模型,下完之后把它放对应文件夹下 face_detection/detection/s3fd.pth,其名字为s3fd.pth

执行命令

python inference.py --checkpoint_path <ckpt> --face <video.mp4> --audio <an-audio-source>

--checkpoint_path <ckpt>: Checkpoint(理解为一个检查点路径),转换完成的视频将默认放置到results文件夹下,这个ckpt可以指定路径。

--face <video.mp4>: 视频路径

--audio <an-audio-source>: 音频路径 (可以是.mp3,.wav,甚至支持视频文件)

基本实现原理

  1. 提取音频特征 : 通过使用声谱图等音频处理技术来完成。
  2. 提取视频帧: 从目标视频中提取一系列连续的视频帧,用作唇部动画的目标。
  3. 预测唇部运动 :使用深度学习模型,如卷积神经网络或循环神经网络等模型,学习音频和唇部动作之间的对应关系,生成适合于输入音频的唇部动画。
  4. 合成唇部动画:将预测的唇部运动序列应用于目标视频的唇部区域。对齐和融合。
  5. 渲染和输出 :将合成唇部动画序列目标视频的内容,最终合成唇部动画叠加在目标视频中,后期处理和调整。

效果

总结

总的来说,Wav2Lip AI 的实现原理是利用深度学习模拟预测唇部运动,并应用于唇部区域,然后通过音频特征和视频进行一一对应和合成的。在很多领域都需要这种技术。


相关链接

AI网站

工具类

☎️ 希望对大家有所帮助,如有错误,望不吝赐教,欢迎评论区留言互相学习。感谢阅读,祝您开发有乐趣。

相关推荐
LCG元16 分钟前
垂直Agent才是未来:详解让大模型"专业对口"的三大核心技术
人工智能
我不是QI35 分钟前
周志华《机器学习—西瓜书》二
人工智能·安全·机器学习
操练起来1 小时前
【昇腾CANN训练营·第八期】Ascend C生态兼容:基于PyTorch Adapter的自定义算子注册与自动微分实现
人工智能·pytorch·acl·昇腾·cann
KG_LLM图谱增强大模型1 小时前
[500页电子书]构建自主AI Agent系统的蓝图:谷歌重磅发布智能体设计模式指南
人工智能·大模型·知识图谱·智能体·知识图谱增强大模型·agenticai
声网1 小时前
活动推荐丨「实时互动 × 对话式 AI」主题有奖征文
大数据·人工智能·实时互动
caiyueloveclamp1 小时前
【功能介绍03】ChatPPT好不好用?如何用?用户操作手册来啦!——【AI溯源篇】
人工智能·信息可视化·powerpoint·ai生成ppt·aippt
q***48411 小时前
Vanna AI:告别代码,用自然语言轻松查询数据库,领先的RAG2SQL技术让结果更智能、更精准!
人工智能·microsoft
LCG元1 小时前
告别空谈!手把手教你用LangChain构建"能干活"的垂直领域AI Agent
人工智能
想你依然心痛2 小时前
视界无界:基于Rokid眼镜的AI商务同传系统开发与实践
人工智能·智能硬件·rokid·ai眼镜·ar技术
Learn Beyond Limits3 小时前
Data Preprocessing|数据预处理
大数据·人工智能·python·ai·数据挖掘·数据处理