人脸修复与增强开源项目GFPGAN详细安装教程

文章目录

GFPGAN(Generative Facial Prior GAN)是一个开源的面部图像修复和增强工具,它利用生成对抗网络(GANs)技术,特别是引入了预训练的面部先验网络,来恢复和提升受损或低分辨率的人脸图像。GFPGAN在图像处理任务中表现出色,尤其在细节恢复和图像自然性方面表现突出。这个项目广泛应用于图像修复、面部增强、老照片翻新等领域。

GFPGAN的核心优势在于其强大的图像生成能力和优越的处理速度。相比于传统的图像修复方法,GFPGAN能够更好地捕捉面部特征,并在保持自然逼真的前提下修复图像细节。这使得它在诸如老照片修复、低质量视频帧提升等实际应用中具备很大的潜力。

https://github.com/TencentARC/GFPGAN?tab=readme-ov-file

安装使用教程

1、下载项目代码并创建环境

  • 下载代码
python 复制代码
git clone https://github.com/TencentARC/GFPGAN.git
#进入目录
cd GFPGAN
  • 创建虚拟环境
python 复制代码
python -m venv venv
  • 进入虚拟环境 第二次进入,就在该目录下直接输入以下命令就行
python 复制代码
.\venv\Scripts\activate
  • 退出虚拟环境
python 复制代码
deactivate

2、安装必要库

python 复制代码
# Install basicsr - https://github.com/xinntao/BasicSR
# We use BasicSR for both training and inference
pip install basicsr

# Install facexlib - https://github.com/xinntao/facexlib
# We use face detection and face restoration helper in the facexlib package
pip install facexlib

pip install -r requirements.txt
python setup.py develop

# If you want to enhance the background (non-face) regions with Real-ESRGAN,
# you also need to install the realesrgan package
pip install realesrgan
python 复制代码
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

3、下载预训练模型

模型下载 放在目录experiments/pretrained_models

4、避坑

1、首先查看下torch的版本

python 复制代码
pip show torchvision

2、我本地尝试,是可以

python 复制代码
pip install --upgrade torchvision==0.12.0
python 复制代码
pip index versions numpy

如果这篇文章对你有用的话,请帮忙点个关注、点赞、收藏,若有其它问题,可评论区回复,谢谢~

相关推荐
阡之尘埃1 小时前
Python数据分析案例61——信贷风控评分卡模型(A卡)(scorecardpy 全面解析)
人工智能·python·机器学习·数据分析·智能风控·信贷风控
孙同学要努力3 小时前
全连接神经网络案例——手写数字识别
人工智能·深度学习·神经网络
Eric.Lee20213 小时前
yolo v5 开源项目
人工智能·yolo·目标检测·计算机视觉
其实吧34 小时前
基于Matlab的图像融合研究设计
人工智能·计算机视觉·matlab
丕羽4 小时前
【Pytorch】基本语法
人工智能·pytorch·python
ctrey_4 小时前
2024-11-1 学习人工智能的Day20 openCV(2)
人工智能·opencv·学习
SongYuLong的博客5 小时前
Air780E基于LuatOS编程开发
人工智能
Jina AI5 小时前
RAG 系统的分块难题:小型语言模型如何找到最佳断点?
人工智能·语言模型·自然语言处理
-派神-5 小时前
大语言模型(LLM)量化基础知识(一)
人工智能·语言模型·自然语言处理
johnny_hhh5 小时前
AI大模型重塑软件开发流程:定义、应用场景、优势、挑战及未来展望
人工智能