简介:从零开始,手把手教你完成GPU云服务器上的Stable Diffusion部署,涵盖环境配置、依赖安装、模型加载等全流程。
Stable Diffusion作为当前最流行的开源文本生成图像模型,其运行对硬件有明确要求:至少4GB显存的NVIDIA GPU、CUDA 11.x以上环境、足够的内存和存储空间。本地部署受限于个人电脑配置,而GPU云服务器凭借弹性扩展、按需付费、高性能算力等优势,成为开发者、设计师、研究者的首选。本文将详细讲解如何在主流GPU云平台(如AWS、Azure、腾讯云等)上完成Stable Diffusion的完整部署,确保零基础用户也能顺利上手。
推荐配置:
以AWS EC2为例:
p3.2xlarge(含NVIDIA V100 GPU)或g4dn.xlarge(含T4 GPU)。 22(SSH)、7860(Web UI默认端口)。 使用SSH工具(如PuTTY、MobaXterm)连接服务器:
ssh -i /path/to/key.pem ubuntu@<公网IP>
# 添加NVIDIA仓库sudo apt updatesudo apt install -y nvidia-headless-535-open # 根据实际驱动版本调整# 验证驱动安装nvidia-smi
输出应显示GPU型号、驱动版本及CUDA版本(如CUDA 12.2)。
# 下载Anaconda安装脚本wget https://repo.anaconda.com/archive/Anaconda3-latest-Linux-x86_64.shbash Anaconda3-latest-Linux-x86_64.sh# 创建虚拟环境conda create -n stable_diffusion python=3.10conda activate stable_diffusion
# 安装PyTorch(需匹配CUDA版本)pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu118# 验证PyTorch是否使用GPUpython -c "import torch; print(torch.cuda.is_available())" # 应输出True
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.gitcd stable-diffusion-webui
# 使用conda安装基础依赖conda install -y pytorch torchvision torchaudio cudatoolkit=11.8 -c pytorch -c nvidia# 安装WebUI依赖bash webui.sh # 自动安装剩余依赖(如xformers、diffusers等)
将模型文件(如v1-5-pruned-emaonly.ckpt)放入stable-diffusion-webui/models/Stable-diffusion目录。
推荐模型来源:
bash webui.sh --listen --port 7860
--listen:允许外部访问 --port 7860:指定端口(需与安全组配置一致) 访问http://<公网IP>:7860,界面应正常加载。
webui-user.sh中添加COMMANDLINE_ARGS="--xformers",可提升生成速度30%以上。 Settings > Stable Diffusion中设置High VRAM mode或Low VRAM mode,适配不同GPU显存。 lyCORIS或LoRA,减少显存占用。batch_size或resolution,或升级GPU实例。 conda env export > environment.yml备份环境,通过conda env create -f environment.yml恢复。
# 在WebUI目录下执行git clone https://github.com/Mikubill/sd-webui-controlnet.git extensions/sd-webui-controlnetbash webui.sh # 自动安装依赖
重启后,Web UI将支持姿态控制、边缘检测等高级功能。
.pt或.safetensors文件)。 models/Lora目录。 Stable Diffusion标签页勾选LoRA模型并调整权重。sudo shutdown -h now)。本文详细讲解了GPU云服务器上Stable Diffusion的部署流程,涵盖环境配置、模型加载、性能优化等关键步骤。通过云服务器,用户可突破本地硬件限制,实现高效、稳定的AI绘画生成。未来,可进一步探索多GPU并行训练、自定义数据集微调等高级用法,满足个性化需求。