星级打分
平均分:0 参与人数:0 我的评分:未评
本帖最后由 nzztt 于 2022-4-30 09:55 编辑
先上效果图(左原图,右修复图 ,为使ai“猜”得少些,示例上采样尺度改为2):
对比
环境需求:Python >= 3.7(建议使用conda) PyTorch >= 1.7
硬件: NVIDIAGPU CUDA
环境的搭建自己去百度,还是不难入手的。
1.克隆项目:git clone https://github.com/TencentARC/GFPGAN.git
或者自己下载并解压到GFPGAN-master
2.创建并进入为项目所准备的虚拟环境(我这里环境名叫GFPGAN,在项目之前就已经装了pytorch和cuda了),进入项目所在根目录:
3.1 安装依赖包(截图这里环境已经装过了,所以显示already):
pip install basicsr
8
pip install facexlib
7
3.2 安装项目环境导出的需求包(必须到项目根目录下,否则找不到txt文件):pip install -r requirements.txt
6
这里的环境同样也是已经装过了,其实3.1步骤的装了到这一步也会下载只有部分没装的而已。
3.3 打包配置文件到环境里: python setup.py develop
5
4 下载预训练模型,并放在项目默认的路径下:
4
这里是作者1.3版本的预训练模型,特点是在低质量的输入图上比以前版本有更好的结果,但存在轻微失真的可能(个人感觉正常,人工智能修复本来就是“猜”出来的),所以一般用这个1.3版本的(1.2版本存在输出可能不自然的问题)
[size=13.3333px]
5* 安装realesrgan 包:
pip install realesrgan
图略,和上面一样在命令行即可。
这个其实可以选择不装,因为这个对应的主要作用是图片人物的背景修复,如果不装的话需要把inference_gfpgan.py里的相关代码注释掉。另外作者团队也有一个专门的这个同名的项目,主要是把动漫人物及视频做修复,感兴趣可以自己去找来玩一玩
[size=13.3333px]
6.万事俱备,可以开始推断投入使用了(不用官方的模型想自己训练其实也是可以的,但个人感觉特费时间和资源,还需要数据集,未必比官方的好):
终端输入python inference_gfpgan.py -h可以查看运行的可选指令。
对应可选的指令,例如输入:python inference_gfpgan.py -i inputs/whole_imgs -o results -v 1.3 -s 2 表示输入图片所在的文件夹是根目录下inputs里whole_imgs文件里的图片,结果存在resulits文件夹里,采用的模型是1.3版本,上采样尺度是2
2
初次运行会自动下载包里模型需要的权重文件,下载完就会跑起来了,如下图:
1
如果速度不行建议手机开流量然后给电脑供热点,或者把网址复制了去浏览器自己下载了并放入图中环境包的路径里。
***最后说一下,就是 -s 后面的参数UPSCALE一般输入2或者4就够了,默认为2。
可能有些小伙伴github没速度,已经打包放度盘了(v1.3预训练模型帮放好了),下载解压然后用pycharm打开项目文件即可。
|