简介:本文为开发者提供ComfyUI的完整安装部署指南,涵盖环境准备、依赖安装、系统配置及常见问题解决方案,帮助用户快速搭建稳定高效的图形化AI开发环境。
ComfyUI作为一款基于PyTorch的图形化AI开发框架,以其模块化设计和直观的操作界面受到开发者青睐。本文将系统讲解ComfyUI的安装部署全流程,从环境准备到运行优化,帮助用户快速搭建稳定的工作环境。
nvidia-smi查看)⚠️ 版本冲突是常见问题,建议使用
conda创建独立环境:
conda create -n comfy_env python=3.10conda activate comfy_env
pip install comfyui# 验证安装python -c "import comfy; print(comfy.__version__)"
git clone https://github.com/comfyanonymous/ComfyUI.gitcd ComfyUIpip install -r requirements.txt
| 依赖包 | 版本要求 | 作用说明 |
|---|---|---|
| torch | ≥1.12 | 深度学习计算核心 |
| xformers | 最新 | 优化注意力计算(可选) |
| onnxruntime | 1.15+ | ONNX模型支持(可选) |
💡 性能优化建议:安装
xformers可提升30%以上的注意力计算速度
git lfs installgit clone https://huggingface.co/stabilityai/sdxl-1.0
ComfyUI/models/checkpoints目录config.json指定模型路径:
{"checkpoint_path": "./models/checkpoints/sdxl-1.0.safetensors"}
PATH=%PATH%;C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.1\bin
python main.py --port 7860 --listen
# 安装依赖sudo apt install libgl1-mesa-glx libglib2.0-0# 设置CUDA环境echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
FROM python:3.10-slimWORKDIR /appCOPY requirements.txt .RUN pip install --no-cache-dir -r requirements.txtCOPY . .CMD ["python", "main.py"]
构建并运行:
docker build -t comfyui .docker run -d --gpus all -p 7860:7860 comfyui
现象:CUDA out of memory或CUDA driver version is insufficient
解决方案:
# 在config.json中添加"training_args": {"batch_size": 4}
nvcc --versionpython -c "import torch; print(torch.version.cuda)"
典型错误:RuntimeError: Error(s) in loading state_dict
排查步骤:
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")model.to(device)
torch.cuda.empty_cache()定期清理显存
from torch.utils.checkpoint import checkpoint# 在模型定义中替换部分forward操作
# 在启动脚本中添加import torch.distributed as distdist.init_process_group(backend='nccl')model = torch.nn.parallel.DistributedDataParallel(model)
ComfyUI默认生成logs/runtime.log,关键指标包括:
iter_time: 单次迭代耗时mem_usage: 显存占用率loss_value: 训练损失值
#!/bin/bash# 定期清理缓存find /tmp -name "torch_*" -mtime +3 -delete# 检查服务状态netstat -tulnp | grep 7860
使用Nginx反向代理实现多实例负载均衡:
upstream comfy_servers {server 127.0.0.1:7860;server 127.0.0.1:7861;}server {listen 80;location / {proxy_pass http://comfy_servers;}}
AWS EC2配置要点:
g4dn.xlarge实例(含NVIDIA T4显卡)
sudo apt-get install -y nvidia-cuda-toolkit
通过本文的详细指导,开发者可以完成从环境搭建到生产部署的全流程。关键成功要素包括:精确的版本控制、合理的资源分配、以及持续的性能监控。建议新手从本地开发环境入手,逐步过渡到容器化部署,最终实现高可用的云服务架构。
📌 延伸学习:完成安装后,可进一步探索ComfyUI的插件系统(如
comfyui-manager)和自定义节点开发,这些功能将显著提升开发效率。