持续迭代中,也可将你的迭代意见留在评论区。

图片源自网络,侵权即删。

请将本文看完(可以规避很多问题)

此工作流分为了三个部分,这里仅展示了第一部分工作流。(主要目的是为了修复破损

第一部分一定要在遮罩编辑器中涂抹破损区域

涂抹破顺区域(并保存)

第二部分放大工作流:https://www.liblib.art/modelinfo/8abc5e381a704bf190b70d3ce21eef5d?from=personal_page

第二部分主要是放大并增加细节的作用

第三部分:利用DDColor上色(操作流程如下)可以快速抽卡(与第三部分在同一个工作流里),节省时间。通过调整色温和明度来控制颜色

上色模型选第四个。

此次工作流修复借鉴了部分工作流功能修改而来。

工作流地址如下:https://openart.ai/workflows/datou/old-photo-restoration-xl/vKtihSX1DGBiBjAovlSP

此工作流程的作用

修复破损老照片并抽卡上色

运行配置RTX 3060

本工作流运行约300秒左右

本工作流包含多个节点组

1.初始修复面节点组,如果画面无破损,可将整个组关闭

https://github.com/Acly/comfyui-inpaint-nodes

2.利用Old-Photos-Back-to-Life修复再次修补画面

https://github.com/cdb-boop/ComfyUI-Bringing-Old-Photos-Back-to-Life/tree/master

3.利用大语言模型识别图片内容并生成提示词,使用大模型为图像识别模型llava及文本大模型qwen2

模型下载:https://ollama.com/library  打开CMD运行ollama run llava。

4.利用depth、openpose、tile三个controlnet控制重绘人物

5.Reactor面部二次换脸达到降低DIST值目的,提高仿真度

https://github.com/Gourieff/comfyui-reactor-node

6.除面部外的修复组,利用YoloWorld扣除面部,也可以用SEG替换(此节点已换成SEG节点组)

7.采样器重绘除脸部以外的部分

9.最后使用DDcolour上色

10.面部相似度分析

https://github.com/cubiq/ComfyUI_FaceAnalysis

如果一次出图依然有破损,可将修复后的图片二次导入。

最后利用SUPIR放大。

模型配置详情:

inpaint模型:\models\inpaint

Bringing-Old-Photos-Back-to-Life模型:\models\checkpoints\restoration   按我的目录配置

ControlNet模型:\models   按我的目录配置

ReActor模型:\models   按我的目录配置

很多人反馈Bringing-Old-Photos-Back-to-Life节点安装依然爆红,这里是我整理的文字版安装教程如下:

Bringing-Old-Photos-Back-to-Life节点安装教程:

首先安装visual studio视频链接: https://www.bilibili.com/video/BV1E94y1G7Nb/?spm_id_from=333.999.0.0&vd_source=63fd55dacf5faa83875583bd9b4a1c7e

安装时注意勾选

然后下载CMake

https://cmake.org/download/

选择这个可安装文件下载。

默认安装

然后到ComfyUI-aki-v1.1\python  地址栏输入CMD

运行下列代码:python.exe -m pip install easydict matplotlib opencv-python scikit-image scipy

安装完成显示:

再运行这段代码:python.exe -m pip install cmake

安装完成显示:

最后运行代码:python.exe -m pip install dlib==19.24.1

不暴红代表安装成功。

然后再次运行秋叶启动器即可完成Bringing-Old-Photos-Back-to-Life的安装。

不出问题应该可以安装成功了。如图