移动端数字人 Ultralight-Digital-Human 算法笔记

目录

[Ultralight-Digital-Human 数字人算法](#Ultralight-Digital-Human 数字人算法)

视音频对齐同步模型:SyncNet

[MNN TaoAvatar 无网手机运行数字人开源](#MNN TaoAvatar 无网手机运行数字人开源)

[metahuman-stream 改名为livetalking](#metahuman-stream 改名为livetalking)


Ultralight-Digital-Human 数字人算法

参考资料

项目代码:https://github.com/anliyuan/Ultralight-Digital-Human

人脸检测(SCRFD):Sample and Computation Redistribution for Efficient Face Detection

https://arxiv.org/pdf/2105.04714

https://zhuanlan.zhihu.com/p/388842796

模型:scrfd_2.5g_kps.onnx

人脸关键点检测(PFLD):A Practical Facial Landmark Detector

https://arxiv.org/pdf/1902.10859

https://zhuanlan.zhihu.com/p/65557195

模型:checkpoint_epoch_335.pth.tar (实际输出了110个坐标点)

音频特征提取,两种方案

HuBert:

WeNet:

视音频对齐同步模型:SyncNet

项目地址:https://github.com/joonson/sync

https://github.com/anliyuan/Ultralight-Digital-Human

首先我们需要提取音频特征,我用了两个不同的特征提取起,分别是wenet和hubert,感谢他们。

When you using wenet, you neet to ensure that your video frame rate is 20, and for hubert,your video frame rate should be 25.

如果你选择使用wenet的话,你必须保证你视频的帧率是20fps,如果选择hubert,视频帧率必须是25fps。

In my experiments, hubert performs better, but wenet is faster and can run in real time on mobile devices.

在我的实验中,hubert的效果更好,但是wenet速度更快,可以在移动端上实时运行

And other steps are in data_utils/process.py, you just run it like this.

其他步骤都写在data_utils/process.py里面了,没什么特别要注意的。

复制代码
cd data_utils
python process.py YOUR_VIDEO_PATH --asr hubert

MNN TaoAvatar 无网手机运行数字人开源

metahuman-stream 改名为livetalking

为避免与3d数字人混淆,原项目metahuman-stream改名为livetalking,原有链接地址继续可用

相关推荐
光羽隹衡30 分钟前
计算机视觉——Opencv(图像拼接)
人工智能·opencv·计算机视觉
半壶清水33 分钟前
[软考网规考点笔记]-软件开发、项目管理与知识产权核心知识与真题解析
网络·笔记·压力测试
tq10861 小时前
先探索,后设计
笔记
hnult1 小时前
2026 在线培训考试系统选型指南:核心功能拆解与选型逻辑
人工智能·笔记·课程设计
AI视觉网奇1 小时前
ue 角色驱动衣服 绑定衣服
笔记·学习·ue5
爱打代码的小林2 小时前
基于 MediaPipe 实现实时面部关键点检测
python·opencv·计算机视觉
三水不滴2 小时前
计网ping原理
经验分享·笔记·计算机网络
prog_61032 小时前
【笔记】思路分享:各种大模型免费当agent后台
笔记·大语言模型·agent·cursor
凯尔萨厮2 小时前
Maven(Windows下载安装)
笔记·maven
wdfk_prog2 小时前
[Linux]学习笔记系列 -- [drivers][input]serio
linux·笔记·学习