StyleSync 开源部分总结

https://github.com/guanjz20/StyleSync_PyTorch

这个是号称最强的模型. 说百分之99拟合真人. 我们赶紧来学习.

首先权重和训练是不开源的. 我也只能尽可能的根据发布的代码来看能学到什么.

先说结论: 整体跟wav2lip百分之90相似. 都是视频--->图片--->抽取人脸landmark->每个图片根据音频生成新的图片->ffmpeg把图片变成视频即可.

==========首先我们看inference.py
parser.add_argument('--img_size', type=int, default=256)======这里跟wav2lip 的96比变大了. 所以结果demo看得出来明显比wav2lip生成的分辨率高很多
face, affine_matrix = restorer.align_warp_face(img.copy(), lmks3=lmk3_, smooth=True) ==========这里进行了人脸变形.
face = cv2.resize(face, (args.img_size, args.img_size), interpolation=cv2.INTER_CUBIC) 然后人脸resize
然后他还使用了mask
face_masked = face.copy() * img_mask 对人脸以外部分进行了保护.
pred = model(img_batch, mel_batch) # 预测新脸
pred = cv2.resize(pred, (x2 - x1, y2 - y1), interpolation=cv2.INTER_CUBIC) # resize回去
out_img = restorer.restore_img(img, pred, affine_matrix) # 逆仿射把人脸变回去.
#最后ffmpeg写入视频.
总结确实比wav2lip 加入很多细节处理. 预处理和后处理!!!!!可以借鉴!!!!!!!!!!
================stylesync_model.py 下面我们分析这个文件
audioConv2d audio也用了conv计算.
加入了一些噪音好像
mask_n_noise. 后续的有时间看论文再找找有用的吸收洗手.
======================结束======================

相关推荐
萤丰信息7 小时前
聚焦能碳协同!开源免费智慧园区,助力园区绿色低碳转型
开源·智慧城市
X54先生(人文科技)9 小时前
《元创力》纪实录·桥段古卷显影:当未来考古遇见元协议
人工智能·开源·零知识证明
irpywp14 小时前
Rilmazafone :一款可视化 DMG 编辑器,拖拽排版一键生成
开源·编辑器·github
还好还好不是吗15 小时前
用 DeepSeek-TUI 接入 MatrixMedia MCP,终端里 AI 对话驱动多平台自动发布
electron·开源
冬奇Lab16 小时前
一天一个开源项目(第103篇):Open-Generative-AI - 开源 AI 视频与图像创作中心
人工智能·开源·aigc
Pan Zonghui16 小时前
个人开源技术博客前端
前端·开源
sbjdhjd17 小时前
02 (中)| K8s Pod 生产化落地:从配置到优化全流程
linux·运维·云原生·kubernetes·开源·podman·kubelet
lularible18 小时前
PTP协议精讲(4.5):编译运行与测试
网络·网络协议·开源·嵌入式·ptp
闲人编程19 小时前
开源 vs 闭源:构建Agent该如何选择基座模型?
ai·开源·微调·智能体·决策·自进化·决策矩阵
计算机魔术师19 小时前
【AI Agent 工程 | 能力分级】从 L1 到 L5:MIT AI Agent Index 分级系统完全拆解
开源