news 2026/4/19 5:35:27

Nunchaku FLUX.1-dev实战手册:ComfyUI中工作流导入/修改/保存全流程

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Nunchaku FLUX.1-dev实战手册:ComfyUI中工作流导入/修改/保存全流程

Nunchaku FLUX.1-dev实战手册:ComfyUI中工作流导入/修改/保存全流程

你是不是在ComfyUI里看到别人分享的酷炫工作流,自己却不知道怎么用?或者好不容易调好了一套参数,想保存下来下次再用,结果发现操作起来一头雾水?

别担心,今天我就带你彻底搞懂ComfyUI里工作流的“导入、修改、保存”这一套完整流程。咱们就以最近很火的Nunchaku FLUX.1-dev模型为例,手把手教你从零开始,把别人的工作流变成你自己的生产力工具。

这篇文章不讲复杂的理论,只讲最实用的操作。看完之后,你就能轻松玩转ComfyUI的工作流,不管是套用模板还是自定义创作,都能得心应手。

1. 准备工作:把Nunchaku FLUX.1-dev环境搭起来

在开始折腾工作流之前,咱们得先把“舞台”搭好。Nunchaku FLUX.1-dev是个对硬件有点要求的模型,所以第一步是确保你的电脑能跑得动。

1.1 检查你的硬件和软件

首先看看你的显卡。Nunchaku FLUX.1-dev推荐使用24GB以上显存的NVIDIA显卡。如果你的显卡显存不够大,也不用担心,后面我会告诉你怎么选择占用显存更少的版本。

软件方面需要准备三样东西:

  • Python 3.10或更高版本
  • Git(用来下载代码)
  • 对应你显卡和系统的PyTorch版本(比如torch 2.7、2.8或2.9)

还有一个工具需要提前安装,叫huggingface_hub,它是用来下载模型文件的。安装命令很简单:

pip install --upgrade huggingface_hub

1.2 安装Nunchaku插件和ComfyUI

现在来安装核心的Nunchaku插件。我给你两种方法,选一个你觉得顺手的就行。

方法一:用Comfy-CLI工具(最简单)

如果你喜欢一键搞定,这个方法最适合你:

# 先安装ComfyUI的命令行工具 pip install comfy-cli # 安装ComfyUI本体(如果已经装过了就跳过这步) comfy install # 安装Nunchaku插件 comfy noderegistry-install ComfyUI-nunchaku # 把插件移到正确的位置 mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes

方法二:手动安装(更灵活)

如果你想自己控制安装的每个步骤,可以用这个方法:

# 1. 下载ComfyUI git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt # 2. 下载Nunchaku插件 cd custom_nodes git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes

插件装好后,还需要安装Nunchaku的后端。从v0.3.2版本开始,这个过程变得很简单——插件里自带了一个install_wheel.json文件,可以一键安装或更新所需的后端包。

2. 下载模型文件:准备好“颜料”和“画布”

插件装好了,就像有了画画的工具,但现在还没有颜料和画布。接下来咱们要下载模型文件,这是生成图片的“原材料”。

2.1 配置工作流目录

为了让ComfyUI能识别Nunchaku的工作流,需要先创建对应的目录:

# 进入ComfyUI的根目录 cd ComfyUI # 创建工作流存放的目录(如果不存在的话) mkdir -p user/default/example_workflows # 把Nunchaku自带的示例工作流复制过去 cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/

2.2 下载基础模型文件

Nunchaku FLUX.1-dev需要两个基础模型才能正常工作:文本编码器和VAE模型。

文本编码器的作用是把你的文字描述转换成模型能理解的格式,VAE模型则负责把模型生成的中间结果变成最终的图片。这两个模型都需要下载:

# 下载文本编码器模型,放到models/text_encoders目录 hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders # 下载VAE模型,放到models/vae目录 hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae

如果你已经在本地下好了这些模型文件,也可以直接创建软链接。比如在我的电脑上,模型文件的实际存放路径是这样的:

# 文本编码器模型 ~/ComfyUI/models/text_encoders/ clip_l.safetensors -> /root/.cache/huggingface/FLUX.1-dev/text_encoders/clip_l.safetensors t5xxl_fp16.safetensors -> /root/.cache/huggingface/FLUX.1-dev/text_encoders/t5xxl_fp16.safetensors # VAE模型 ~/ComfyUI/models/vae/ ae.safetensors -> /root/.cache/huggingface/FLUX.1-dev/vae/ae.safetensors

2.3 下载核心的FLUX.1-dev模型

这是最重要的部分——Nunchaku FLUX.1-dev主模型。根据你的显卡类型,需要选择不同的版本:

  • Blackwell架构显卡(比如RTX 50系列):用FP4版本
  • 其他NVIDIA显卡:用INT4版本
  • 显存不够大:可以考虑FP8量化版,显存占用会小很多

以INT4版本为例,下载命令是这样的:

hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/

下载后,模型会放在models/unet/目录下。同样,如果你已经下载了模型文件,可以查看一下路径:

~/ComfyUI/models/unet/ svdq-int4_r32-flux.1-dev.safetensors -> /root/ai-models/comfyanonymous/unet/svdq-int4_r32-flux.1-dev.safetensors

2.4 可选:下载LoRA模型增强效果

LoRA模型就像滤镜,可以让生成的图片有特定的风格或效果。Nunchaku FLUX.1-dev支持加载多个LoRA,常见的比如FLUX.1-Turbo-Alpha(加速生成)和Ghibsky Illustration(吉卜力动画风格)。

这些模型下载后放在models/loras/目录。在我的设置里,目录结构是这样的:

~/ComfyUI/models/loras/ diffusion_pytorch_model.safetensors -> /root/ai-models/comfyanonymous/diffusion/diffusion_pytorch_model.safetensors lora_v2.safetensors -> /root/ai-models/comfyanonymous/lora/lora_v2.safetensors

3. 工作流导入:把别人的模板变成你的起点

环境准备好了,模型也下载了,现在终于可以进入正题——学习怎么导入和使用工作流了。

3.1 启动ComfyUI并打开网页界面

首先启动ComfyUI。在ComfyUI的根目录下运行:

python main.py

启动成功后,用浏览器打开显示的本地地址(通常是http://127.0.0.1:8188),就能看到ComfyUI的网页界面了。

3.2 导入Nunchaku FLUX.1-dev工作流

在ComfyUI的网页界面里,点击右上角的“Load”按钮,然后找到我们之前复制到user/default/example_workflows/目录的工作流文件。

对于Nunchaku FLUX.1-dev,我推荐使用nunchaku-flux.1-dev.json这个工作流。它有几个优点:

  • 专门为FLUX.1-dev模型优化过
  • 支持加载多个LoRA模型
  • 文生图的效果最好

加载成功后,你会看到界面上出现了一堆连接好的节点。别被这个复杂的界面吓到,其实大部分设置都已经配好了,你只需要关注几个关键的地方。

4. 工作流修改:按你的需求定制化

导入工作流只是第一步,真正有意思的是按照你的想法来修改它。咱们来看看怎么调整这个工作流。

4.1 理解工作流的基本结构

当你加载nunchaku-flux.1-dev.json后,界面上会显示完整的节点连接。主要包含这几个部分:

  1. 提示词输入:这里输入你想要生成的图片描述
  2. 模型加载:已经配置好了FLUX.1-dev模型
  3. LoRA控制:可以加载和调整多个LoRA的权重
  4. 采样器设置:控制生成过程的步数、方法等参数
  5. 图像输出:最终生成图片的预览和保存

4.2 修改提示词和参数

找到工作流中的提示词输入框,这里是你和AI“沟通”的地方。FLUX.1-dev模型对英文提示词的支持更好,所以建议用英文描述。

比如你可以输入:A beautiful landscape with mountains and lakes, ultra HD, realistic, 8K

除了提示词,你还可以调整这些参数:

  • 推理步数:一般20-50步,步数越多细节越丰富,但生成时间也越长
  • 分辨率:根据你的显存选择,显存不够可以降低分辨率
  • LoRA权重:如果加载了LoRA,可以调整它的影响强度
  • 采样器:不同的采样器会影响生成效果和速度

4.3 添加或删除节点

如果你想在工作流中加入新的功能,比如图片放大、人脸修复等,可以右键点击空白处,选择“Add Node”,然后从列表中找到需要的节点。

删除节点更简单,选中节点后按Delete键就行。但要注意节点之间的连接关系,删除一个节点可能会断开整个工作流。

4.4 调整节点连接

有时候你可能想改变数据流动的路径。比如,你想在生成图片后先进行人脸修复,再放大分辨率。这时候就需要调整节点之间的连接。

在ComfyUI里,连接节点很简单:点击一个节点的输出端口(右边的小圆点),拖到另一个节点的输入端口(左边的小圆点)上。断开连接也很容易,点击连接线然后按Delete键。

5. 工作流保存:把你的创作成果存下来

调好了一个满意的工作流,当然要保存下来,不然下次还得重新调一遍。ComfyUI提供了几种保存方式。

5.1 保存完整工作流

这是最常用的保存方式。点击界面右上角的“Save”按钮,给工作流起个名字,比如my_flux_landscape_workflow.json,然后保存。

保存的文件里包含了所有节点的配置、连接关系、参数设置。下次想用的时候,直接“Load”这个文件就行,一切都会恢复到保存时的状态。

5.2 保存为模板

如果你创建了一个特别有用的工作流结构,可以把它保存为模板。这样以后新建工作流时,可以直接从模板开始,省去了从头搭建的麻烦。

保存模板的方法和保存工作流类似,只是建议把模板文件放在专门的目录里,方便管理。

5.3 导出图片+工作流

ComfyUI还有一个很实用的功能:把生成的图片和工作流信息一起保存。这样当你看到一张喜欢的图片时,不仅能保存图片本身,还能保存生成这张图片的所有设置。

在输出节点上,勾选“Save workflow with image”选项,这样保存图片时就会同时生成一个同名的JSON文件。

6. 运行和调试:让工作流真正跑起来

修改和保存都学会了,现在来看看怎么实际运行工作流,以及遇到问题怎么解决。

6.1 运行工作流生成图片

调整好所有参数后,点击界面上的“Queue Prompt”按钮,ComfyUI就会开始处理你的工作流。

你会看到节点一个接一个地亮起,表示正在执行。生成完成后,图片会显示在预览区域。

如果对结果不满意,可以调整提示词或参数,然后再次运行。ComfyUI支持实时预览,你可以一边调整一边看效果变化。

6.2 常见问题排查

在使用工作流的过程中,可能会遇到一些问题。这里分享几个我经常遇到的坑和解决方法:

问题一:加载工作流时提示节点缺失

这是因为工作流里用到了某些自定义节点,但你的ComfyUI里没有安装。解决方法是通过ComfyUI-Manager安装缺失的节点。

问题二:生成图片时显存不足

FLUX.1-dev的FP16版本需要约33GB显存,如果不够可以:

  • 使用INT4或FP8量化版模型
  • 降低生成图片的分辨率
  • 减少批处理数量

问题三:生成效果不理想

如果图片质量不好,可以尝试:

  • 增加推理步数(特别是关闭了FLUX.1-Turbo-AlphaLoRA时,步数不能低于20)
  • 调整提示词,描述更详细一些
  • 尝试不同的采样器

问题四:工作流运行很慢

生成速度慢可能是由于:

  • 推理步数设置太高
  • 分辨率太大
  • 同时加载了太多LoRA

7. 高级技巧:让工作流更高效

掌握了基础操作后,咱们再来看看一些能提升效率的高级技巧。

7.1 使用工作流变量

ComfyUI支持在工作流中使用变量,这样你可以快速切换不同的设置。比如,你可以创建一个“分辨率”变量,然后快速在512x512、768x768、1024x1024之间切换,而不用手动修改每个相关节点。

7.2 创建自定义节点组

如果你经常使用某几个节点的组合,可以把它们打包成一个自定义节点组。这样下次使用时,直接拖入这个组就行,不用再一个个连接节点。

创建节点组的方法:选中要打包的节点,右键选择“Group”,然后给这个组起个名字。

7.3 利用工作流历史

ComfyUI会自动保存工作流的历史版本。如果你不小心改坏了工作流,或者想回到之前的某个状态,可以点击“History”查看和恢复历史版本。

7.4 分享和导入社区工作流

ComfyUI有一个活跃的社区,很多用户会分享自己创建的工作流。你可以在Civitai、Hugging Face等平台找到各种有趣的工作流。

导入社区工作流的方法和导入本地工作流一样,只是文件来源不同。但要注意,社区工作流可能依赖特定的自定义节点,导入后可能需要额外安装。

8. 实战案例:创建一个完整的文生图工作流

理论讲得差不多了,现在咱们通过一个实际案例,把学到的知识用起来。

8.1 案例目标

我们要创建一个专门生成风景图片的工作流,要求:

  • 基于Nunchaku FLUX.1-dev模型
  • 支持快速切换不同风格的LoRA
  • 自动保存生成结果到指定文件夹
  • 可以批量生成不同分辨率的图片

8.2 搭建步骤

第一步:导入基础工作流

先从nunchaku-flux.1-dev.json开始,这是我们的基础模板。

第二步:添加风格切换功能

在LoRA加载节点后面,添加一个“Lora Loader”节点。这样我们可以加载多个LoRA,并通过调整权重快速切换风格。

比如,我可以准备三个LoRA:

  • 一个用于写实风格
  • 一个用于油画风格
  • 一个用于动漫风格

第三步:设置自动保存

找到输出节点,右键选择“Convert to Image Save”。在设置中,指定保存路径和文件名格式。我通常会用时间戳+提示词关键词作为文件名,这样方便后期整理。

第四步:添加分辨率控制

在采样器节点前,添加一个“Empty Latent Image”节点。这个节点可以设置生成图片的宽高。为了快速切换不同分辨率,我创建了几个预设按钮:512x512、768x768、1024x1024。

第五步:测试和优化

搭建完成后,用不同的提示词和参数测试工作流。根据测试结果,微调各个节点的参数,直到达到满意的效果。

8.3 保存和分享

工作流调试完成后,别忘了保存。我建议保存两个版本:

  • 一个带所有设置的完整版本(scenery_workflow_complete.json
  • 一个简化版,只保留核心节点(scenery_workflow_simple.json

如果你想分享给朋友,记得提醒他们需要安装Nunchaku插件和下载对应的模型文件。

9. 关键注意事项和避坑指南

在结束之前,我想分享几个特别重要的注意事项,这些是我在实际使用中总结出来的经验。

9.1 模型文件存放位置不能错

这是最容易出错的地方。FLUX.1-dev的各个模型文件必须放在正确的目录:

  • 主模型:models/unet/
  • LoRA模型:models/loras/
  • 文本编码器:models/text_encoders/
  • VAE模型:models/vae/

放错位置会导致ComfyUI找不到模型,工作流无法运行。

9.2 显卡和模型版本要匹配

不同架构的显卡对模型版本有要求:

  • Blackwell显卡(如RTX 50系列)只能用FP4版本
  • 其他NVIDIA显卡优先用INT4版本
  • 显存不够的可以考虑FP8版本

用错版本可能会导致生成失败或者效果很差。

9.3 推理步数设置要合理

如果你关闭了FLUX.1-Turbo-Alpha这个加速LoRA,那么推理步数至少要设置到20步以上。步数太少的话,生成的图片质量会明显下降。

9.4 及时更新插件和模型

Nunchaku和ComfyUI都在不断更新,新版本通常会修复bug、提升性能。建议定期检查更新,但要注意:更新前最好备份你的工作流和设置。

9.5 工作流兼容性问题

从社区下载的工作流可能是在不同版本的ComfyUI或插件下创建的。如果导入后出现问题,可以尝试:

  • 更新所有插件到最新版本
  • 检查节点是否缺失
  • 手动重新连接出错的节点

10. 总结

通过这篇文章,你应该已经掌握了在ComfyUI中使用Nunchaku FLUX.1-dev模型的完整流程。从环境准备、模型下载,到工作流的导入、修改、保存,每个步骤我都尽量讲得详细实用。

记住几个关键点:

  1. 准备工作要做好:硬件、软件、模型文件,一个都不能少
  2. 工作流是活的:不要害怕修改,多尝试不同的配置
  3. 及时保存成果:调好的工作流一定要保存下来
  4. 学会排查问题:遇到问题先检查模型路径、节点连接这些基础设置

ComfyUI的工作流系统看起来很复杂,但一旦掌握了基本逻辑,你会发现它非常强大和灵活。你可以像搭积木一样,把不同的功能组合起来,创造出独一无二的AI绘画流程。

最重要的是多动手实践。刚开始可能会遇到各种问题,但每解决一个问题,你就对这个工具的理解更深一层。慢慢地,你会从“跟着教程做”变成“创造自己的教程”。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/19 5:32:32

3分钟掌握Windows APK安装神器:APK Installer终极指南

3分钟掌握Windows APK安装神器:APK Installer终极指南 【免费下载链接】APK-Installer An Android Application Installer for Windows 项目地址: https://gitcode.com/GitHub_Trending/ap/APK-Installer 还在为Windows无法直接安装安卓应用而烦恼吗&#xf…

作者头像 李华
网站建设 2026/4/19 5:30:55

快速上手Clawdbot:三步实现Qwen3-32B模型的Web化部署

快速上手Clawdbot:三步实现Qwen3-32B模型的Web化部署 1. 为什么选择Clawdbot部署Qwen3-32B 当你已经成功部署了Qwen3-32B这样强大的大语言模型,下一步自然希望它能通过网页界面与用户交互。传统方法需要自行开发前端、处理API转发、管理会话状态&#…

作者头像 李华
网站建设 2026/4/19 5:28:26

从ASF高效获取Sentinel-1雷达影像:一站式下载与预处理指引

1. Sentinel-1雷达影像基础认知 第一次接触Sentinel-1数据时,我和很多初学者一样被各种专业术语搞得晕头转向。后来在实际项目中反复使用才发现,理解这些基础概念对后续数据获取和预处理至关重要。Sentinel-1是欧空局哥白尼计划中的雷达卫星星座&#xf…

作者头像 李华
网站建设 2026/4/19 5:26:38

REX-UniNLU与Typora文档智能分析

REX-UniNLU与Typora文档智能分析 1. 引言 在日常工作中,我们经常需要处理大量的Markdown文档。无论是技术文档、项目报告还是学习笔记,如何快速理解和分析这些文档内容一直是个挑战。传统的文档分析需要人工阅读和整理,费时费力且容易出错。…

作者头像 李华
网站建设 2026/4/19 5:21:54

LeetCode 3783. 整数的镜像距离 技术解析

LeetCode 3783. 整数的镜像距离 技术解析 题目概述 题目描述 给你一个整数 n,定义它的镜像距离为:abs(n - reverse(n)),其中 reverse(n) 表示将 n 的数字反转后形成的整数。要求返回 n 的镜像距离。 其中,abs(x) 表示 x 的绝对值,且题目给出约束:1 <= n <= 10⁹…

作者头像 李华