移动端数字人 Ultralight-Digital-Human 算法笔记

目录

[Ultralight-Digital-Human 数字人算法](#Ultralight-Digital-Human 数字人算法)

视音频对齐同步模型:SyncNet

[MNN TaoAvatar 无网手机运行数字人开源](#MNN TaoAvatar 无网手机运行数字人开源)

[metahuman-stream 改名为livetalking](#metahuman-stream 改名为livetalking)


Ultralight-Digital-Human 数字人算法

参考资料

项目代码:https://github.com/anliyuan/Ultralight-Digital-Human

人脸检测(SCRFD):Sample and Computation Redistribution for Efficient Face Detection

https://arxiv.org/pdf/2105.04714

https://zhuanlan.zhihu.com/p/388842796

模型:scrfd_2.5g_kps.onnx

人脸关键点检测(PFLD):A Practical Facial Landmark Detector

https://arxiv.org/pdf/1902.10859

https://zhuanlan.zhihu.com/p/65557195

模型:checkpoint_epoch_335.pth.tar (实际输出了110个坐标点)

音频特征提取,两种方案

HuBert:

WeNet:

视音频对齐同步模型:SyncNet

项目地址:https://github.com/joonson/sync

https://github.com/anliyuan/Ultralight-Digital-Human

首先我们需要提取音频特征,我用了两个不同的特征提取起,分别是wenet和hubert,感谢他们。

When you using wenet, you neet to ensure that your video frame rate is 20, and for hubert,your video frame rate should be 25.

如果你选择使用wenet的话,你必须保证你视频的帧率是20fps,如果选择hubert,视频帧率必须是25fps。

In my experiments, hubert performs better, but wenet is faster and can run in real time on mobile devices.

在我的实验中,hubert的效果更好,但是wenet速度更快,可以在移动端上实时运行

And other steps are in data_utils/process.py, you just run it like this.

其他步骤都写在data_utils/process.py里面了,没什么特别要注意的。

复制代码
cd data_utils
python process.py YOUR_VIDEO_PATH --asr hubert

MNN TaoAvatar 无网手机运行数字人开源

metahuman-stream 改名为livetalking

为避免与3d数字人混淆,原项目metahuman-stream改名为livetalking,原有链接地址继续可用

相关推荐
瑶光守护者2 小时前
【学习笔记】5G RedCap:智能回落5G NR驻留的接入策略
笔记·学习·5g
你想知道什么?2 小时前
Python基础篇(上) 学习笔记
笔记·python·学习
monster000w2 小时前
大模型微调过程
人工智能·深度学习·算法·计算机视觉·信息与通信
xian_wwq3 小时前
【学习笔记】可信数据空间的工程实现
笔记·学习
浩瀚地学3 小时前
【Arcpy】入门学习笔记(五)-矢量数据
经验分享·笔记·python·arcgis·arcpy
Li.CQ3 小时前
SQL学习笔记
笔记·sql·学习
云霄星乖乖的果冻4 小时前
01引言——李沐《动手学深度学习》个人笔记
人工智能·笔记·深度学习
雍凉明月夜4 小时前
c++ 精学笔记记录Ⅱ
开发语言·c++·笔记·vscode
路弥行至4 小时前
FreeRTOS任务管理详解中: FreeRTOS任务创建与删除实战教程(动态方法)
c语言·开发语言·笔记·stm32·操作系统·freertos·入门教程