洛阳网站建设报价,德胜门网站建设,山东有实力的网站开发多少钱,免费注册个网站Nunchaku FLUX.1-dev部署教程#xff1a;ComfyUI环境准备与模型下载步骤 想体验最新最强的文生图模型#xff0c;却被复杂的安装步骤和满屏的命令行吓退了#xff1f;别急#xff0c;这篇教程就是为你准备的。Nunchaku FLUX.1-dev是目前最受关注的图像生成模型之一#x…Nunchaku FLUX.1-dev部署教程ComfyUI环境准备与模型下载步骤想体验最新最强的文生图模型却被复杂的安装步骤和满屏的命令行吓退了别急这篇教程就是为你准备的。Nunchaku FLUX.1-dev是目前最受关注的图像生成模型之一画质细腻风格多样。今天我就带你从零开始在ComfyUI里把它跑起来。整个过程清晰明了跟着步骤走你也能快速拥有自己的AI画师。1. 环境检查确保你的电脑“吃得消”在动手安装之前我们先花几分钟确认一下你的电脑环境是否满足要求。这就像跑步前热身能避免很多后续的麻烦。1.1 硬件要求你的显卡够力吗运行AI模型尤其是像FLUX.1-dev这样的大型模型对显卡有一定要求。核心是NVIDIA显卡并且需要支持CUDA。推荐配置拥有24GB或以上显存的NVIDIA显卡。这能让你流畅运行标准版模型体验最佳效果。主流配置如果你的显卡是RTX 3060 12GB、RTX 4060 Ti 16GB等也完全没问题。我们可以选择“量化版”模型它在保证不错画质的同时大幅降低显存占用。入门尝试即使是8GB显存的显卡如RTX 4060 8GB也有对应的FP8量化版本可以尝试让你入门体验。简单说只要有NVIDIA显卡你就能玩。显存大小决定了你能用哪个版本的模型以及生成图片的速度和分辨率。1.2 软件准备安装必要的工具软件方面我们需要三个基础工具它们大多是开源且免费的。Python 3.10这是运行所有AI相关代码的“普通话”必须安装。去Python官网下载安装包记得安装时勾选“Add Python to PATH”。Git一个代码版本管理工具我们需要用它来下载ComfyUI和插件的源代码。同样去Git官网下载安装即可。PyTorch一个主流的深度学习框架。不过别担心我们后续安装ComfyUI时它会自动处理相关依赖。最后我们还需要一个专门用来下载模型文件的工具。打开你的命令行终端Windows上是CMD或PowerShellMac/Linux上是Terminal输入以下命令pip install --upgrade huggingface_hub这行命令会安装或更新huggingface_hub这个Python库后面下载模型就靠它了。看到安装成功的提示基础软件环境就准备好了。2. 搭建舞台安装ComfyUI与Nunchaku插件现在我们来搭建AI绘画的操作间——ComfyUI并安装能让它使用FLUX.1-dev模型的“翻译插件”。2.1 安装ComfyUI可视化界面ComfyUI是一个通过拖拽节点来构建AI工作流的工具非常直观。我们有两种方法安装它推荐第一种更简单。方法一使用Comfy-CLI一键安装推荐这个方法最省心它会自动处理大部分事情。在命令行中依次执行以下命令# 第一步安装ComfyUI的官方命令行管理工具 pip install comfy-cli # 第二步安装ComfyUI本体如果之前没装过 comfy install # 执行后它会自动创建一个名为“ComfyUI”的文件夹。 # 第三步安装Nunchaku插件 comfy noderegistry-install ComfyUI-nunchaku # 第四步将插件移动到ComfyUI的正确目录下 mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes方法二手动安装适合喜欢掌控细节的用户如果你更习惯手动操作或者网络环境特殊可以按以下步骤# 第一步下载ComfyUI的源代码 git clone https://github.com/comfyanonymous/ComfyUI.git # 这会创建一个ComfyUI文件夹 # 第二步进入文件夹安装所有必需的Python库 cd ComfyUI pip install -r requirements.txt # 第三步进入自定义节点目录下载Nunchaku插件 cd custom_nodes git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes无论哪种方法完成后你都会得到一个包含Nunchaku插件的ComfyUI文件夹。2.2 安装Nunchaku后端引擎插件是“操作界面”还需要一个“引擎”来实际驱动模型运行。幸运的是从Nunchaku插件v0.3.2版本开始这个过程非常简单。你只需要确保插件安装正确。之后在启动ComfyUI的网页界面后通过加载一个名为install_wheel.json的预设工作流文件并运行它就能一键完成后端引擎的安装或更新。这个我们放到启动ComfyUI后再做。3. 配置工作流与下载模型舞台搭好了现在要把“主演”模型请上台并给它准备好“剧本”工作流。3.1 配置示例工作流工作流文件.json是ComfyUI的“预设流程图”它定义了从输入文字到输出图片的每一步。Nunchaku插件自带了一些优化好的工作流我们直接拿来用。打开命令行进入你的ComfyUI文件夹根目录然后执行# 确保你在ComfyUI文件夹内 cd ComfyUI # 创建用于存放示例工作流的目录 mkdir -p user/default/example_workflows # 将插件自带的工作流文件复制过去 cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/这样当你启动ComfyUI后就能在界面上直接加载这些预设好的高效流程。3.2 下载核心模型文件这是最关键的一步我们需要下载模型本身和它运行所需的组件。主要分为两部分第一部分基础FLUX模型组件必须下载你可以把它们理解为模型的“大脑”和“画笔”。文本编码器 (Text Encoders)负责理解你输入的文字描述。需要下载两个文件。VAE解码器负责将模型生成的抽象数据“解码”成你能看到的像素图片。在ComfyUI根目录下执行以下命令来下载它们# 下载文本编码器放到 models/text_encoders/ 目录 hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders # 下载VAE解码器放到 models/vae/ 目录 hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae第二部分Nunchaku FLUX.1-dev主模型核心画师这就是模型本体。根据你的显卡你需要选择不同“规格”的版本你的显卡情况推荐模型版本特点RTX 50系列 (Blackwell架构)FP4量化版专为新架构优化效率最高其他NVIDIA显卡 (如RTX 30/40系)INT4量化版通用性强显存占用低效果平衡显存较小 (如8GB)FP8量化版最节省显存适合入门体验这里以最通用的INT4版本为例下载命令如下# 下载INT4量化版主模型放到 models/unet/ 目录 hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/下载完成后你的ComfyUI/models/目录结构应该类似这样models/ ├── text_encoders/ # 存放 clip_l.safetensors, t5xxl_fp16.safetensors ├── vae/ # 存放 ae.safetensors ├── unet/ # 存放 svdq-int4_r32-flux.1-dev.safetensors (主模型) └── loras/ # (可选) 存放风格模型如FLUX.1-Turbo-Alpha3.3 可选下载风格模型LoRALoRA是一种小型模型可以像“滤镜”一样为生成图片附加特定的风格如动漫、科幻或特性如加速生成。FLUX.1-Turbo-Alpha就是一个能显著提升生成速度的LoRA。如果需要下载后放入models/loras/目录即可这不是必选项。4. 启动ComfyUI并生成第一张图片所有材料准备就绪让我们点亮舞台开始创作。4.1 启动ComfyUI服务在命令行中进入ComfyUI根目录运行启动命令cd ComfyUI python main.py稍等片刻你会看到命令行输出类似http://127.0.0.1:8188的地址。用浏览器如Chrome打开这个地址你就进入了ComfyUI的图形化操作界面。4.2 加载并运行Nunchaku工作流在ComfyUI网页界面中点击左上角的“Load”按钮。在弹出的窗口中导航至ComfyUI/user/default/example_workflows/目录。选择并加载nunchaku-flux.1-dev.json这个工作流文件。这是功能最全、支持多LoRA的推荐工作流。加载后界面会显示一系列相互连接的节点这就是预设好的生成流水线。4.3 安装后端与生成图片安装后端在加载的工作流中找到一个名为“Install Nunchaku”的节点通常是一个绿色按钮。点击它ComfyUI会自动完成Nunchaku后端引擎的安装。只需做一次。输入提示词在工作流中找到“Positive Prompt”节点在其中的文本框里用英文描述你想画的画面。例如A majestic dragon flying over ancient Chinese palaces, digital art, highly detailed, epic lighting。点击生成找到界面右侧的“Queue Prompt”按钮点击它。等待结果进度条会开始走动根据你的显卡性能和图片设置等待几十秒到几分钟生成的图片就会出现在预览窗口了5. 总结与关键注意事项回顾一下我们完成了从环境检查、安装ComfyUI和插件、下载模型到最终生成图片的全过程。为了让你的体验更顺畅这里有几个关键点需要牢记模型路径要对务必把主模型.safetensors文件放在models/unet/目录下基础组件放在对应的text_encoders和vae目录。放错了地方ComfyUI会报错找不到模型。量化模型按需选不要盲目追求大模型。根据你的显卡显存选择合适的量化版本INT4/FP8。在显存有限的情况下选择量化版本能让你生成更大尺寸或更复杂的图片。注意推理步数如果你没有使用FLUX.1-Turbo-Alpha这个加速LoRA请务必将采样步数Steps设置为20或以上以保证生成图片的质量。如果使用了该LoRA可以用更少的步数。提示词用英文FLUX.1-dev模型对英文提示词的响应和理解更好尽量使用英文进行描述。多尝试多探索AI绘画的魅力在于无限的可能性。多调整提示词尝试不同的风格关键词如oil painting,cyberpunk,studio ghibli style你会有意想不到的收获。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。