StyleSync 开源部分总结

https://github.com/guanjz20/StyleSync_PyTorch

这个是号称最强的模型. 说百分之99拟合真人. 我们赶紧来学习.

首先权重和训练是不开源的. 我也只能尽可能的根据发布的代码来看能学到什么.

先说结论: 整体跟wav2lip百分之90相似. 都是视频--->图片--->抽取人脸landmark->每个图片根据音频生成新的图片->ffmpeg把图片变成视频即可.

==========首先我们看inference.py
parser.add_argument('--img_size', type=int, default=256)======这里跟wav2lip 的96比变大了. 所以结果demo看得出来明显比wav2lip生成的分辨率高很多
face, affine_matrix = restorer.align_warp_face(img.copy(), lmks3=lmk3_, smooth=True) ==========这里进行了人脸变形.
face = cv2.resize(face, (args.img_size, args.img_size), interpolation=cv2.INTER_CUBIC) 然后人脸resize
然后他还使用了mask
face_masked = face.copy() * img_mask 对人脸以外部分进行了保护.
pred = model(img_batch, mel_batch) # 预测新脸
pred = cv2.resize(pred, (x2 - x1, y2 - y1), interpolation=cv2.INTER_CUBIC) # resize回去
out_img = restorer.restore_img(img, pred, affine_matrix) # 逆仿射把人脸变回去.
#最后ffmpeg写入视频.
总结确实比wav2lip 加入很多细节处理. 预处理和后处理!!!!!可以借鉴!!!!!!!!!!
================stylesync_model.py 下面我们分析这个文件
audioConv2d audio也用了conv计算.
加入了一些噪音好像
mask_n_noise. 后续的有时间看论文再找找有用的吸收洗手.
======================结束======================

相关推荐
猫头虎-人工智能41 分钟前
openEuler远程批量部署实战 SSH VNC IPMI全流程解析
运维·git·开源·ssh·github·开放原子·开源软件
CaracalTiger1 小时前
在openEuler操作系统中多样性算力支持与性能压力测试操作
linux·运维·git·开源·开放原子·压力测试·开源软件
AI云原生2 小时前
《开箱即用的高性能:openEuler 默认配置下的 Web 服务性能评测》
运维·前端·docker·云原生·开源·开源软件·开源协议
说私域2 小时前
基于开源AI智能名片链动2+1模式与S2B2C商城小程序的高认知类产品营销创新研究——以茅台酒为例
人工智能·小程序·开源
飞梦工作室2 小时前
Supabase介绍详解:开源BaaS的技术内核与实践指南
后端·架构·开源
慢一点会很快2 小时前
【每日一读Day4】主流开源搜索引擎对比
搜索引擎·开源
修己xj13 小时前
TypeWords:让英语学习更高效的打字练习神器
开源
1新121 小时前
树莓派5 + 本地大模型(Qwen) + 离线语音 = 打造毫秒级“贾维斯”
开源
CoderJia程序员甲1 天前
GitHub 热榜项目 - 日榜(2025-12-7)
git·ai·开源·llm·github
EterNity_TiMe_1 天前
使用openEuler来测试GCC编译效率实战测评
开源·操作系统·gcc·openeuler·实战测评