以下部分内容来自 Github README

Real-ESRGAN 的目标是开发出实用的图像/视频修复算法。
我们在 ESRGAN 的基础上使用纯合成的数据来进行训练,以使其能被应用于实际的图片修复的场景(顾名思义:Real-ESRGAN)。
使用前后对比图
你可以通过下面这个命令来运行(Windows版本的例子,更多信息请查看对应版本的README.md):
./realesrgan-ncnn-vulkan.exe -i 输入图像.jpg -o 输出图像.png -n 模型名字
我们提供了五种模型:
- realesrgan-x4plus(默认)
- reaesrnet-x4plus
- realesrgan-x4plus-anime(针对动漫插画图像优化,有更小的体积)
- RealESRGANv2-animevideo-xsx2 (针对动漫视频, X2)
- RealESRGANv2-animevideo-xsx4 (针对动漫视频, X4)
你可以通过-n
参数来使用其他模型,例如./realesrgan-ncnn-vulkan.exe -i 二次元图片.jpg -o 二刺螈图片.png -n realesrgan-x4plus-anime
可执行文件的用法
Usage: realesrgan-ncnn-vulkan.exe -i infile -o outfile [options]...
-h show this help
-v verbose output
-i input-path input image path (jpg/png/webp) or directory
-o output-path output image path (jpg/png/webp) or directory
-s scale upscale ratio (4, default=4)
-t tile-size tile size (>=32/0=auto, default=0) can be 0,0,0 for multi-gpu
-m model-path folder path to pre-trained models(default=models)
-n model-name model name (default=realesrgan-x4plus, can be realesrgan-x4plus | realesrgan-x4plus-anime | realesrnet-x4plus)
-g gpu-id gpu device to use (default=0) can be 0,1,2 for multi-gpu
-j load:proc:save thread count for load/proc/save (default=1:2:2) can be 1:2,2,2:2 for multi-gpu
-x enable tta mode
-f format output image format (jpg/png/webp, default=ext/png)
由于这些exe文件会把图像分成几个板块,然后来分别进行处理,再合成导出,输出的图像可能会有一点割裂感(而且可能跟PyTorch的输出不太一样)
The major update: ?
✅ We update the RealESRGAN AnimeVideo-v3 model, which can achieve better results with a faster inference speed.
The improvements are:
- better naturalness
- Fewer artifacts
- more faithful to the original colors
- better texture restoration
- better background restoration
我去爱了爱了,这个看起来好牛
真牛...
今天看了一个叫备长碳的动漫 用了这个修复的,变得好高清,谢谢楼主,我愿意用我的全部种子作为感谢
也太厲害了吧...