本次分享介绍如何在 ComfyUI 中顺利运行其他人分享的 workflow ,包括处理问题的一般方法。
开启 ComfyUI
从慧星云 (原名厚德云) 创建一台 GPU 主机,镜像选择 app-comfyui_* 。
登录主机后运行 ./start_comfyui ,程序会自动配置好 ComfyUI 并运行。

看到输出
To see the GUI go to: http://0.0.0.0:10000
表示 ComfyUI 程序已经在运行中。
配置端口转发
接着配置 “自定义端口”。

将 10000 端口转发。

点击确定后,再次打开“自定义端口”,可见公网映射端口。

浏览器打开 http://域名:公网映射端口

导入 workflow

这是一个制作 Sticker 风格图片的 workflow 。
直接下载为 json 文件。

将 json 文件拖入 ComfyUI 内,此时会看到红字提醒,因为有部分插件没有安装。

安装缺失插件
依次选择 Manager - Install Missing Custom Nodes

全选并安装

安装完成后,点击 “Restart”,弹窗中选择 “OK”。并且刷新一下网页。

解决异常
问题 0 插件加载失败
还有报错显示有部分 node 插件未安装。

此时需要查看运行日志
运行日志中可见 ComfyUI_InstantID 这个插件导入失败了。

此时我们需要查看该插件的说明文档,插件的主页地址可以在 Manager 中找到。
点击 Title 可以跳转到插件主页(https://github.com/cubiq/ComfyUI_InstantID)。

查看 Installation 章节,发现它依赖 insightface 库,需要自行安装。

问题 1 依赖包安装缺少编译环境
回到命令行页面 ,按下 Ctrl+C 停止 ComfyUI 。
然后如下命令激活 python venv 环境。
source /root/ComfyUI/venv/bin/activate

输入如下命令安装 insightface
pip install insightface
然后碰到新的报错。

原因是缺少 g++ 编译器,输入如下命令安装
sudo apt update
sudo apt -y install g++
再次尝试安装 insightface, 成功安装。

再次运行 ComfyUI ,无报错。

刷新 ComfyUI 页面,可以正常加载 workflow 了。

问题 2 缺少模型文件
但是目前点击“Queue Prompt”,依然是无法运行的。

因为工作流中用到的各种模型 都还没有配置。
根据标红的节点来依次处理。
输入图片
首先缺少输入图片。上传输入图片即可。

再次运行,新的报错。

InstantID 模型
原因是 InstantID 节点和 ControlNet 节点均缺少模型。

在 ComfyUI_InstantID 安装文档(https://github.com/cubiq/ComfyUI_InstantID?tab=readme-ov-file#installation)中有说明

下载模型文件到指定目录
mkdir -p /root/ComfyUI/models/instantid
wget -O /root/ComfyUI/models/instantid/ip-adapter.bin \
https://huggingface.co/InstantX/InstantID/resolve/main/ip-adapter.bin?download=true
mkdir -p /root/ComfyUI/models/controlnet/instantid
wget -O /root/ComfyUI/models/controlnet/instantid/diffusion_pytorch_model.safetensors \
https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true
再次运行,controlnet 节点仍然报错
选择正确的模型文件路径

Checkpoint 模型
再次运行,新的报错
缺少 Checkpoint 模型

利用模型管理插件在线下载



等待下载完成

Lora 模型
再次运行,发现还缺少 Lora 模型

同样的方式搜索并安装

antelopev2 模型
再次运行,还有个报错
antelopev2 的模型还没下载

其实已经自动下载了,但是目录不对

手动修复下
mv /root/ComfyUI/models/insightface/models/antelopev2/antelopev2 /root/ComfyUI/models/insightface/models/antelopev2__ &&
mv /root/ComfyUI/models/insightface/models/antelopev2 /root/ComfyUI/models/insightface/models/antelopev2_del &&
mv /root/ComfyUI/models/insightface/models/antelopev2__ /root/ComfyUI/models/insightface/models/antelopev2
RMBG-1.4 模型
再次运行,还有报错
这次问题在 ComfyUI-BRIA_AI-RMBG 插件

打开插件主页(https://github.com/ZHO-ZHO-ZHO/ComfyUI-BRIA_AI-RMBG) 查看使用说明

下载模型到指定目录
wget -O /root/ComfyUI/custom_nodes/ComfyUI-BRIA_AI-RMBG/RMBG-1.4/model.pth \
https://huggingface.co/briaai/RMBG-1.4/resolve/main/model.pth?download=true
再次运行,搞定。

总结
- 自动安装插件,并不能自动解决环境依赖,有些还需要手动处理。
- 很多插件都有依赖的模型包,大部分都不会自动安装,需要自行查看文档下载。