如果你正打算在云端部署 Stable Diffusion 进行 AI 绘图,那么选择合适的 GPU 服务器配置是关键第一步。显存大小、操作系统兼容性、Python 环境支持,都会直接影响部署效率和出图速度。我们一起来看看如何科学选型,并完成基础环境搭建。
一、Stable Diffusion 对 GPU 服务器的核心硬件要求
Stable Diffusion 模型(尤其是基于 WebUI 的部署方式)对显存有明确门槛。以下是关键指标:
- 最低显存要求:6GB(仅能运行基础模型,生成速度慢,易爆显存)
- 推荐显存容量:8GB 以上(可流畅运行 ChilloutMix、RealisticVision 等主流模型)
- 理想配置:12GB~16GB 显存(支持 ControlNet、高清修复、多 LoRA 同时加载)
- GPU 架构建议:NVIDIA Ampere(如 A10、A100)或 Turing(如 T4、RTX 30/40 系列),需支持 CUDA 11.7 或 11.8
注意:显存不足会导致 OutOfMemoryError,即使 CPU 和内存再高也无法弥补。
二、操作系统与 Python 环境选择对比
虽然部分用户偏好图形化界面,但从部署效率和资源占用角度,Linux 系统(尤其是 Ubuntu)仍是首选。下表对比两种主流选择:
| 维度 | Ubuntu(推荐) | Windows Server |
|---|---|---|
| 驱动安装 | 可自动安装 CUDA + cuDNN(部分镜像预集成) | 需手动下载 NVIDIA 驱动,步骤繁琐 |
| 资源占用 | 轻量,后台服务少 | 系统本身占用高,影响可用显存/内存 |
| WebUI 兼容性 | 原生支持,社区脚本丰富 | 依赖第三方启动器(如秋叶包),更新滞后 |
| Python 环境管理 | 支持 venv、conda,版本灵活 |
路径空格、权限问题频发 |
因此,除非你有强依赖 Windows 的工具链,否则建议优先选择 Ubuntu 20.04 或 22.04 镜像。
三、部署 Stable Diffusion WebUI 的实操步骤(Ubuntu 环境)
-
创建 Python 虚拟环境(需 Python ≥ 3.8)
sudo apt update && sudo apt install -y python3.10-venv git python3.10 -m venv sd-env source sd-env/bin/activate -
克隆 WebUI 项目
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui -
优化 PyTorch 安装源(避免超时)
原版
launch.py会从官方源下载torch==1.13.1+cu117,速度极慢。建议替换为国内镜像:sed -i 's|https://download.pytorch.org/whl/cu117|https://pypi.tuna.tsinghua.edu.cn/pytorch-wheels/cu117|g' launch.py -
启动 WebUI(首次运行会自动安装依赖)
./webui.sh --listen --port 7860加上
--listen可通过公网 IP 访问,记得在安全组开放 7860 端口。
四、模型下载与存储优化建议
主流模型如 ChilloutMix 体积约 4~7GB,建议提前规划存储空间:
- 系统盘建议 ≥ 100GB(Ubuntu 系统约占 10GB,WebUI + 依赖约 15GB,模型至少预留 20GB)
- 若需多模型切换,可挂载独立云硬盘或使用对象存储(通过软链接挂载)
- 模型存放路径:
stable-diffusion-webui/models/Stable-diffusion/
下载示例(在模型目录执行):
wget https://huggingface.co/.../chilloutmix_NiPrunedFp32Fix.safetensors
五、性能调优关键参数
启动时添加以下参数可显著提升生成效率:
--xformers:启用 xformers 优化注意力机制,降低显存占用 20%~30%--medvram或--lowvram:显存 ≤ 8GB 时必加--disable-nan-check:跳过 NaN 检查,小幅提速--api:开启 API 接口,便于集成到业务系统
完整启动命令示例:
./webui.sh --listen --port 7860 --xformers --medvram
六、常见部署问题排查清单
- 卡在 “Installing requirements”:检查网络是否能访问 PyPI,或手动替换 pip 源为清华/阿里云
- “CUDA out of memory”:降低生成分辨率(如 512×512),关闭高清修复,或启用
--lowvram - WebUI 无法通过公网访问:确认云服务商安全组已放行 7860 端口(TCP)
- 模型加载失败:检查文件后缀是否为
.safetensors或.ckpt,并确保文件完整
常见问题 FAQ
| 问题 | 解答 |
|---|---|
| 6GB 显存能跑 Stable Diffusion 吗? | 可以,但必须使用 --lowvram,且生成分辨率不能超过 512×512,无法使用 ControlNet 等高负载插件。 |
| Ubuntu 18.04 还能用吗? | 不推荐。Python 3.6 默认版本过低,需手动升级,且 CUDA 驱动兼容性差。建议使用 20.04 或 22.04。 |
| 是否必须安装 cuDNN? | 是的。Stable Diffusion 依赖 cuDNN 加速卷积运算。若使用预装 GPU 驱动的镜像,通常已包含 CUDA + cuDNN。 |
| 能否用 CPU 模式运行? | 技术上可行,但生成一张图需数分钟至数十分钟,无实用价值。必须使用 GPU。 |
| WebUI 启动后访问不了 7860 端口? | 检查三点:1)启动命令含 --listen;2)云服务器安全组开放 7860;3)本地防火墙未拦截。 |
| 厂商 | 配置 | 带宽 / 流量 | 价格 | 购买地址 |
|---|---|---|---|---|
| 腾讯云 | 4核4G | 3M | 79元/年 | 点击查看 |
| 腾讯云 | 2核4G | 5M | 188元/年 | 点击查看 |
| 腾讯云 | 4核8G | 10M | 630元/年 | 点击查看 |
| 腾讯云 | 4核16G | 12M | 1024元/年 | 点击查看 |
| 腾讯云 | 2核4G | 6M | 528元/3年 | 点击查看 |
| 腾讯云 | 2核2G | 5M | 396元/3年(≈176元/年) | 点击查看 |
| 腾讯云GPU服务器 | 32核64G | AI模型应用部署搭建 | 691元/月 | 点击查看 |
| 腾讯云GPU服务器 | 8核32G | AI模型应用部署搭建 | 502元/月 | 点击查看 |
| 腾讯云GPU服务器 | 10核40G | AI模型应用部署搭建 | 1152元/月 | 点击查看 |
| 腾讯云GPU服务器 | 28核116G | AI模型应用部署搭建 | 1028元/月 | 点击查看 |
所有价格仅供参考,请以官方活动页实时价格为准。