ComfyUI模型下载
ComfyUI自带模型库下载(需要特殊网络)
ComfyUI自带有一个模型管理,如果你的网络通达,则该方案是最简单。
启动ComfyUI

点击右上角的“Manager” 按钮

找到上图所示的 “Model Manger” ,点击 “Model Manger”按钮进入模型下载管理

Filter 模型是否安装筛选
- All(全部)
- Installed(已安装/已下载)
- Not Installed(没有安装/没有下载)
- In Workflow (在工作流)
Type 模型类型筛选

这里的类型,对应ComfyUI安装目录的models目录,

Base 大模型基础模型筛选
如果你知道docker,那么这个base就可以理解为官方版镜像,例如官方版 nginx,然后又有玩家扩展了一些功能发布了一个nginx-ext版,nginx-ext版是基于nginx官方版的。这里的Base就是这个意思。

ComfyUI手动下载模型(国内行情)
国内常用下载网站
- 魔搭社区
- HF-Mirror(用于镜像 huggingface.co 域名)
下面以阿里的千问图像为例
Comfyui官方模型手动下载示例
Comfyui官方模型下载
打开魔塔社区,搜索qwen-image ,找到ComfyUI库的 Qwen-Image_ComfyUI · 模型库


打开后,点击模型文件

模型文件有官方的split_files和非官方的non_official。这里以官方的为准,我们需要下载的文件有
- diffusion_models/qwen_image_fp8_e4m3fn.safetensors
- text_encoders/qwen_2.5_vl_7b_fp8_scaled.safetensors
- vae/qwen_image_vae.safetensors
提示:这里是以fp8精度为例,如果你的显卡显存够大,可以选非量化版下载
三个文件下载完成后分别放在相对应的confyui models文件夹里面,参考下图

重要提示:
新手动下载了某个模型,需要重启当前运行的ComfyUI才可用哟!!!
Comfyui 官方示例
点击顶部加号,添加一个新工作流

点击左侧菜单的“范本”

搜索 qwen-image

选择第一个,如上所示。

打开后提示缺少模型,则我们再去魔塔社区下载 缺少的模型,搜索 “qwen-image-lightning”

找到模型文件

然后找到 Qwen-Image-Lightning-8steps-V1.0.safetensors
下载文件,放到ConfiyUI/models/loras/
目录下
重要提示:
新手动下载了某个模型,需要重启当前运行的ComfyUI才可用哟!!!
官方示例流程图参考:

点击下面的运行,测试:(由于我的设备只有16G显存无法运行官方的fp8量化版)如果你的显存大于24G,可以尝试运行。
接下来就是测试非官方的量化版了。
Comfyui非官方量化模型手动下载示例
GGUF模型插件安装
GGUF模型下载
打开阿里QWen-image 魔塔社区官方仓库地址 Qwen-Image · 模型库
找到旁边的量化版

量化模型选择city96/的


打开后在模型文件找到适合自己显存大小的量化模型,我这里选择的是Q4_K_M 需要>=16G显存显卡哦
下载完成后,将gguf模型文件放置于Confyui/models/uset/
目录下
GGUF模型使用
双击工作区,弹出搜索框搜索GGUF

大模型使用一般用 Unet Loader,如加载 unset/Qwen_Image-Q4_K_M.gguf
文本解析器一般用CLIPLoader, 如加载千问的文本编码模型 text_encoders/qwen_2.5_vl_7b_fp8_scaled.gguf
解析器一般还是官方的格式多。
GGUF模型工作流示例

生成示例:

https://www.syntaxspace.com/article/250922142637880.html
评论