roop 视频换脸

roop: one click face swap. 只用一张人脸图片,就能完成视频换脸。

本文是本地部署的实践记录。

环境基础

  • OS: Ubuntu 22.04.2 LTS
  • Kernel: 5.19.0
  • CPU: Intel(R) Core(TM) i7-10750H
  • GPU: NVIDIA GeForce RTX 2060
  • RAM: 16.0 GiB

环境安装

Nvidia 驱动

bash 复制代码
# 查看可用驱动信息
ubuntu-drivers devices
# 安装 Nvidia 驱动(可选提示 recommended 的)
sudo apt install nvidia-driver-530
# 查看 Nvidia 驱动(查看不了,可重登录或重启)
nvidia-smi

Anaconda

bash 复制代码
# 安装 Anaconda, 都 yes
bash Anaconda3-2023.07-1-Linux-x86_64.sh

创建虚拟环境,

bash 复制代码
conda create -n roop python=3.10 -y
conda activate roop

roop 安装

获取代码,

bash 复制代码
sudo apt install git -y
git clone --depth 1 https://github.com/s0md3v/roop.git

安装依赖,

bash 复制代码
cd roop
pip install -r requirements.txt

# 如遇错误,可依提示。例如:
#  pip install -r requirements.txt --use-pep517
# 如遇 dependency conflict,可修改依赖版本。例如:
#  numpy>=1.23.5

# 若配置镜像
pip config set global.index-url http://mirrors.aliyun.com/pypi/simple
pip config set install.trusted-host mirrors.aliyun.com
cat ~/.config/pip/pip.conf

roop 体验

运行,

bash 复制代码
cd roop
python run.py --execution-provider cuda

# 如果报错类似 ONNXRuntimeError CUBLAS_STATUS_ALLOC_FAILED,需减少执行线程
#  https://github.com/s0md3v/roop/issues/413
python run.py --execution-provider cuda --execution-threads 1

可见窗口,

选择一张人脸图片、一个视频,就能完成转换了。

输出信息,

bash 复制代码
$ python run.py --execution-provider cuda --execution-threads 1
Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CPUExecutionProvider': {}, 'CUDAExecutionProvider': {'device_id': '0', 'gpu_mem_limit': '18446744073709551615', 'gpu_external_alloc': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'cudnn_conv1d_pad_to_nc1d': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'do_copy_in_default_stream': '1', 'enable_cuda_graph': '0', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'enable_skip_layer_norm_strict_mode': '0', 'tunable_op_tuning_enable': '0'}}
# ...
find model: /home/john/.insightface/models/buffalo_l/w600k_r50.onnx recognition ['None', 3, 112, 112] 127.5 127.5
set det-size: (640, 640)
inswapper-shape: [1, 3, 128, 128]
100%|█████████████████████████████████████████████████████████████████████████████████████████| 336/336 [00:01<00:00, 185.49it/s]
[ROOP.CORE] Creating temp resources...
[ROOP.CORE] Extracting frames with 30.0 FPS...
[ROOP.FACE-SWAPPER] Progressing...
Processing: 100%|█| 336/336 [01:40<00:00,  3.33frame/s, memory_usage=04.94GB, execution_providers=['CUDAExecutionProvider'], exec
[ROOP.CORE] Creating video with 30.0 FPS...
[ROOP.CORE] Restoring audio...
[ROOP.CORE] Processing to video succeed!

结语

roop 视频换脸,个人感觉效果还不错。

GoCoding 个人实践的经验分享,欢迎关注!

相关推荐
春末的南方城市27 分钟前
VidSketch:具有扩散控制的手绘草图驱动视频生成
人工智能·深度学习·计算机视觉·aigc
Francek Chen1 小时前
【大模型科普】AIGC技术发展与应用实践(一文读懂AIGC)
人工智能·深度学习·语言模型·大模型·aigc
kakaZhui2 小时前
【多模态大模型】GLM-4-Voice端到端语音交互机器人VoiceAI
人工智能·chatgpt·机器人·aigc·llama
LittleNyima8 小时前
【代码解读】阿里最新开源视频生成模型 Wan 2.1 实现解析
人工智能·stable diffusion·aigc·音视频
寻道码路10 小时前
深度剖析 Video-RAG:厦门大学和罗切斯特大学联合推出的一种用于长视频理解的检索增强生成技术
人工智能·语言模型·开源·aigc·音视频·ai编程
AIGC安琪13 小时前
AI绘画(Stable Diffusion)喂饭级教程
人工智能·ai作画·stable diffusion·aigc·美女
春末的南方城市15 小时前
CineMaster: 用于电影文本到视频生成的 3D 感知且可控的框架。
人工智能·数码相机·计算机视觉·语言模型·aigc·图像生成
EdisonZhou15 小时前
基于Microsoft.Extensions.VectorData实现语义搜索
llm·aigc·.net core
隔岸观火烧连营15 小时前
JBoltAI_SpringBoot如何基于Deepseek官网API区分 R1大模型深度思考和具体回答的内容?
spring·aigc
村中少年17 小时前
使用DeepSeek/chatgpt等AI工具辅助网络协议流量数据包分析
网络协议·chatgpt·wireshark·json·aigc