本次分享介绍如何在 ComfyUI 中顺利运行其他人分享的 workflow ,包括处理问题的一般方法。
开启 ComfyUI
从慧星云 (原名厚德云) 创建一台 GPU 主机,镜像选择 app-comfyui_* 。
登录主机后运行 ./start_comfyui ,程序会自动配置好 ComfyUI 并运行。
看到输出
To see the GUI go to: http://0.0.0.0:10000
表示 ComfyUI 程序已经在运行中。
配置端口转发
接着配置 “自定义端口”。
将 10000 端口转发。
点击确定后,再次打开“自定义端口”,可见公网映射端口。
浏览器打开 http://域名:公网映射端口
导入 workflow
这是一个制作 Sticker 风格图片的 workflow 。
直接下载为 json 文件。
将 json 文件拖入 ComfyUI 内,此时会看到红字提醒,因为有部分插件没有安装。
安装缺失插件
依次选择 Manager - Install Missing Custom Nodes
全选并安装
安装完成后,点击 “Restart”,弹窗中选择 “OK”。并且刷新一下网页。
解决异常
问题 0 插件加载失败
还有报错显示有部分 node 插件未安装。
此时需要查看运行日志
运行日志中可见 ComfyUI_InstantID 这个插件导入失败了。
此时我们需要查看该插件的说明文档,插件的主页地址可以在 Manager 中找到。
点击 Title 可以跳转到插件主页(https://github.com/cubiq/ComfyUI_InstantID)。
查看 Installation 章节,发现它依赖 insightface 库,需要自行安装。
问题 1 依赖包安装缺少编译环境
回到命令行页面 ,按下 Ctrl+C 停止 ComfyUI 。
然后如下命令激活 python venv 环境。
source /root/ComfyUI/venv/bin/activate
输入如下命令安装 insightface
pip install insightface
然后碰到新的报错。
原因是缺少 g++ 编译器,输入如下命令安装
sudo apt update
sudo apt -y install g++
再次尝试安装 insightface, 成功安装。
再次运行 ComfyUI ,无报错。
刷新 ComfyUI 页面,可以正常加载 workflow 了。
问题 2 缺少模型文件
但是目前点击“Queue Prompt”,依然是无法运行的。
因为工作流中用到的各种模型 都还没有配置。
根据标红的节点来依次处理。
输入图片
首先缺少输入图片。上传输入图片即可。
再次运行,新的报错。
InstantID 模型
原因是 InstantID 节点和 ControlNet 节点均缺少模型。
在 ComfyUI_InstantID 安装文档(https://github.com/cubiq/ComfyUI_InstantID?tab=readme-ov-file#installation)中有说明
下载模型文件到指定目录
mkdir -p /root/ComfyUI/models/instantid
wget -O /root/ComfyUI/models/instantid/ip-adapter.bin \
https://huggingface.co/InstantX/InstantID/resolve/main/ip-adapter.bin?download=true
mkdir -p /root/ComfyUI/models/controlnet/instantid
wget -O /root/ComfyUI/models/controlnet/instantid/diffusion_pytorch_model.safetensors \
https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true
再次运行,controlnet 节点仍然报错
选择正确的模型文件路径
Checkpoint 模型
再次运行,新的报错
缺少 Checkpoint 模型
利用模型管理插件在线下载
等待下载完成
Lora 模型
再次运行,发现还缺少 Lora 模型
同样的方式搜索并安装
antelopev2 模型
再次运行,还有个报错
antelopev2 的模型还没下载
其实已经自动下载了,但是目录不对
手动修复下
mv /root/ComfyUI/models/insightface/models/antelopev2/antelopev2 /root/ComfyUI/models/insightface/models/antelopev2__ &&
mv /root/ComfyUI/models/insightface/models/antelopev2 /root/ComfyUI/models/insightface/models/antelopev2_del &&
mv /root/ComfyUI/models/insightface/models/antelopev2__ /root/ComfyUI/models/insightface/models/antelopev2
RMBG-1.4 模型
再次运行,还有报错
这次问题在 ComfyUI-BRIA_AI-RMBG 插件
打开插件主页(https://github.com/ZHO-ZHO-ZHO/ComfyUI-BRIA_AI-RMBG) 查看使用说明
下载模型到指定目录
wget -O /root/ComfyUI/custom_nodes/ComfyUI-BRIA_AI-RMBG/RMBG-1.4/model.pth \
https://huggingface.co/briaai/RMBG-1.4/resolve/main/model.pth?download=true
再次运行,搞定。
总结
- 自动安装插件,并不能自动解决环境依赖,有些还需要手动处理。
- 很多插件都有依赖的模型包,大部分都不会自动安装,需要自行查看文档下载。