新手必看:Z-Image-ComfyUI从安装到出图全流程
你是不是也试过下载一堆AI绘图工具,结果卡在第一步——连界面都打不开?或者好不容易跑起来了,输入“一只橘猫坐在窗台上”,生成的却是一团模糊色块加半截窗户框?别急,这次我们不讲原理、不堆参数,就用最直白的方式,带你从零开始,15分钟内完成Z-Image-ComfyUI的部署、启动、调参、出图全过程。全程不需要改代码、不配环境变量、不查报错日志,连显卡型号都不用背——只要你的电脑有NVIDIA显卡(RTX 3060及以上或A10/A100等云GPU),就能稳稳跑起来。
这篇文章写给三类人:
- 刚接触AI绘画、连ComfyUI是啥都不知道的新手;
- 下载过很多镜像但总卡在“启动失败”“端口被占”“找不到工作流”的实践派;
- 想快速验证Z-Image中文理解能力、画质表现和出图速度的真实用户。
不绕弯子,不卖关子,所有操作步骤都按你真实操作顺序来排,截图级还原。现在,咱们就开始。
1. 准备工作:确认你的设备能跑起来
Z-Image-Turbo是Z-Image系列里最轻快、最适合新手上手的版本。它不是靠堆算力硬扛,而是用高效蒸馏技术把大模型“瘦身”后依然保持高画质。官方明确说:16G显存的消费级显卡(比如RTX 4090)就能流畅运行。所以你不用纠结“我这台旧电脑行不行”,先看三条硬指标:
- 显卡:NVIDIA GPU,显存 ≥ 12G(推荐16G),驱动版本 ≥ 535(可通过
nvidia-smi命令查看); - 系统:Linux(Ubuntu 22.04优先)或 Windows WSL2(不推荐原生Windows,兼容性差);
- 存储空间:预留至少30GB空闲磁盘(模型文件+缓存+工作流)。
小提醒:如果你用的是Mac或AMD显卡,这条路暂时走不通。Z-Image-ComfyUI目前只支持CUDA加速,不支持Metal或ROCm。别浪费时间折腾,换一台带N卡的机器或直接上云——后面会告诉你怎么3分钟开一台现成的GPU服务器。
没显卡?别慌。阿里云、腾讯云、火山引擎都提供按小时计费的GPU实例,最低配GN7i(1×A10,24G显存)每小时不到3块钱,跑Z-Image绰绰有余。而且镜像已预装好全部依赖,你只需要点几下鼠标。
2. 一键部署:三步完成镜像拉取与启动
Z-Image-ComfyUI镜像是开箱即用型,所有环境(Python 3.10、PyTorch 2.3、xformers、ComfyUI主程序、Z-Image三个变体模型)都已打包进Docker镜像。你不需要手动pip install,也不用担心CUDA版本冲突。
2.1 获取镜像并运行容器
打开终端(Linux/macOS)或WSL2命令行(Windows),依次执行以下三条命令:
# 1. 拉取镜像(约8GB,首次需下载,后续可复用) docker pull registry.cn-hangzhou.aliyuncs.com/ai-mirror/z-image-comfyui:latest # 2. 启动容器(自动映射8188端口,挂载/root目录便于访问脚本) docker run -d \ --gpus all \ --shm-size=8gb \ -p 8188:8188 \ -v $(pwd)/comfyui_data:/root/comfyui \ --name zimage-comfy \ registry.cn-hangzhou.aliyuncs.com/ai-mirror/z-image-comfyui:latest说明:
--gpus all表示启用全部GPU;-p 8188:8188是ComfyUI默认端口,浏览器访问http://localhost:8188即可打开界面;-v $(pwd)/comfyui_data:/root/comfyui把当前目录下的comfyui_data文件夹挂载为容器内工作目录,方便你存工作流、导出图片;- 如果提示“docker: command not found”,请先安装Docker Desktop(Mac/Windows)或
sudo apt install docker.io(Ubuntu)。
2.2 进入容器并启动服务
镜像启动后,它并不会自动运行ComfyUI——这是为了给你留出配置空间。我们需要手动进入容器,执行启动脚本:
# 进入容器 docker exec -it zimage-comfy /bin/bash # 在容器内执行一键启动(注意路径在/root下) cd /root && ./1键启动.sh你会看到一串快速滚动的日志,最后停在类似这样的输出:
[INFO] ComfyUI is running on http://0.0.0.0:8188 [INFO] Z-Image-Turbo model loaded successfully. [INFO] Ready to generate images!成功了!此时不要退出终端,保持这个窗口开着(它维持着服务进程)。打开你的浏览器,访问http://localhost:8188——你将看到ComfyUI熟悉的节点式界面。
如果你在云服务器上运行(比如阿里云ECS),请把
localhost换成你的公网IP,并确保安全组已放行8188端口。云平台控制台通常有“一键开通端口”按钮,点一下就行。
3. 界面初识:三分钟搞懂ComfyUI核心区域
第一次打开ComfyUI,满屏五颜六色的方块可能让你懵几秒。别怕,它只有四个关键区域,记住名字和用途就够了:
| 区域 | 位置 | 作用 | 新手重点关注 |
|---|---|---|---|
| 左侧节点栏 | 左侧垂直栏 | 所有可用功能模块(加载模型、输入提示词、采样器、VAE解码等) | 找到Z-Image-Turbo Loader、CLIP Text Encode、KSampler这三个节点 |
| 中央画布区 | 中间大片空白 | 拖拽节点、连线构建工作流的地方 | 先拖3个节点,连成一条直线,就是最简出图流程 |
| 右侧属性面板 | 右侧窄栏 | 当前选中节点的参数设置(如提示词、采样步数、CFG值) | 输入中文提示词、调CFG=7、步数=20,其他先用默认 |
| 底部状态栏 | 窗口最下方 | 显示当前GPU显存占用、队列状态、错误提示 | 出图时这里会显示“Queueing... → Running → Done” |
小技巧:按住空格键,可以拖动画布;滚轮缩放;右键节点可复制/删除/查看帮助。
现在,请在左侧节点栏依次找到并拖出以下三个节点到画布中央:
Z-Image-Turbo Loader(加载Z-Image-Turbo模型)CLIP Text Encode (Z-Image)(处理中文/英文提示词)KSampler(执行去噪采样)VAE Decode(把潜空间图像转为像素图)Save Image(保存结果)
然后按顺序连线:Z-Image-Turbo Loader→CLIP Text Encode(连到clip端口)CLIP Text Encode→KSampler(连到positive端口)Z-Image-Turbo Loader→KSampler(连到model和vae端口)KSampler→VAE Decode(连到samples端口)VAE Decode→Save Image(连到images端口)
连完后,整个流程就像一条流水线:加载模型 → 编码提示词 → 采样生成 → 解码图像 → 保存。这就是Z-Image出图的最小可行路径。
4. 第一张图:输入中文提示词,5秒见证效果
现在,我们来生成第一张真正属于你的图。别追求复杂,就用最基础的描述测试中文理解能力:
4.1 设置提示词(重点!中文友好实测)
点击CLIP Text Encode (Z-Image)节点,在右侧属性面板中找到text输入框,直接输入以下中文句子(不用翻译,不用加英文):
一只穿着唐装的棕色柴犬,站在苏州园林的月亮门前,阳光明媚,工笔画风格,高清细节为什么选这句?
- “唐装”“苏州园林”“月亮门”是典型中文文化元素,国际模型常识别失败;
- “工笔画风格”测试艺术风格泛化能力;
- “高清细节”触发Z-Image-Turbo的细节增强机制。
4.2 调整关键参数(新手友好三参数)
在KSampler节点中,只需改三项(其余保持默认):
steps:20(Z-Image-Turbo仅需20步即可收敛,比SDXL快2倍)cfg:7(提示词相关性强度,7是中文提示的黄金值,太高易僵硬,太低易跑偏)sampler_name:dpmpp_2m_sde_gpu(Z-Image官方推荐采样器,速度快、稳定性好)
4.3 开始生成 & 查看结果
点击画布顶部的Queue Prompt(队列提示)按钮。你会看到底部状态栏变成Queueing... → Running → Done,整个过程约5–8秒(RTX 4090实测)。
生成完成后,图片会自动出现在Save Image节点右侧的预览框中。点击它,会弹出大图窗口。右键另存为,图片就保存到你挂载的comfyui_data/output/目录下了。
你刚刚完成了一次完整的Z-Image-Turbo推理:从中文输入,到高清图像输出,全程无需切换语言、无需插件、无需调优。
5. 进阶尝试:换模型、换风格、加控制
Z-Image不止一个模型。刚才用的是最快最轻的Turbo版,现在我们试试另外两个变体,感受它们的差异:
5.1 切换到Z-Image-Base:画质更细腻,适合精修
- 删除原来的
Z-Image-Turbo Loader节点; - 从左侧节点栏拖入
Z-Image-Base Loader; - 其他节点和连线完全不变;
- 提示词仍用刚才那句,但把
steps改为30,cfg改为8; - 再点
Queue Prompt。
你会发现:
- 出图时间变长(约12秒),但柴犬毛发纹理、月亮门砖缝、唐装刺绣细节明显更丰富;
- 阴影过渡更自然,不像Turbo版略带“数码感”。
Base版适合你对画质有要求、愿意多等几秒的场景,比如做海报主图、设计稿参考。
5.2 切换到Z-Image-Edit:让已有图片“动起来”
Z-Image-Edit专为图像编辑设计。假设你有一张普通照片,想把它变成水墨风:
- 先用
Load Image节点加载本地照片; - 拖入
Z-Image-Edit Loader; - 连线:
Load Image→Image端口(到Edit Loader),再连到KSampler的latent_image; CLIP Text Encode输入提示词:“水墨山水风格,留白意境,淡雅”;- 其他参数同Base版。
生成后,原图会保留构图和主体,但整体风格被重写。这才是真正的“AI修图”,不是简单滤镜。
6. 故障排查:新手最常遇到的4个问题及解法
即使是最简流程,也可能卡住。以下是90%新手会撞上的问题,附带一句话解决法:
| 问题现象 | 原因 | 一句话解决 |
|---|---|---|
浏览器打不开http://localhost:8188 | 容器没运行,或端口被占 | docker ps看容器是否running;lsof -i :8188查端口占用,kill -9干掉冲突进程 |
| 点击Queue后无反应,状态栏一直“Queueing…” | GPU显存不足,或模型加载失败 | nvidia-smi查显存,若>95%,重启容器;或删掉/root/comfyui/models/checkpoints/下非Turbo模型释放空间 |
| 生成图片全是噪点/色块/文字乱码 | 提示词含特殊符号(如全角括号、emoji)、或CFG值过高 | 删除提示词中所有中文标点,只留逗号句号;CFG调回6–7 |
| 保存的图片是黑的/纯灰 | VAE Decode节点未正确连接,或KSampler输出未连到samples | 检查KSampler右下角是否有蓝线连出;右键节点→“View Node Info”看输出端口名是否匹配 |
终极保命招:回到
/root目录,运行./重置工作流.sh(镜像内置),它会清空所有自定义节点,恢复初始Z-Image-Turbo工作流,5秒回到起点。
7. 总结:你已经掌握了Z-Image-ComfyUI的核心能力
回顾这15分钟,你实际完成了:
- 在任意NVIDIA显卡上部署Z-Image-ComfyUI镜像;
- 启动ComfyUI服务并打开图形界面;
- 拖拽节点、连线构建最简出图工作流;
- 用纯中文提示词生成首张高清图;
- 切换Turbo/Base/Edit三种模型,理解各自定位;
- 掌握4个高频故障的一键修复法。
Z-Image不是又一个“参数更多、模型更大”的堆料产物,而是真正面向中文用户、降低使用门槛的务实选择。它不强迫你学LoRA、不懂ControlNet也能出好图;它不鼓吹“万步采样”,而是用8 NFEs(函数评估次数)实现亚秒级响应;它不把中文当二等公民,而是从tokenization层就原生支持。
下一步,你可以:
- 把工作流导出为JSON文件,分享给同事;
- 尝试加入
ControlNet节点,用线条图控制构图; - 用
Z-Image-Edit批量处理产品图,替换背景、调整光影; - 或者,就停在这里——用Turbo版每天生成10张灵感图,足够支撑你的设计、写作、教学日常。
技术的价值,从来不在多炫酷,而在多好用。Z-Image-ComfyUI,就是那个“装好就能用,用了就见效”的答案。
--- > **获取更多AI镜像** > > 想探索更多AI镜像和应用场景?访问 [CSDN星图镜像广场](https://ai.csdn.net/?utm_source=mirror_blog_end),提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。