很多朋友想做一个自己的AI绘画网站,但一上来就被几个问题卡住:到底要几个人一起用?云服务器怎么选?GPU到底要多大才够用?这篇文章就按“先定场景,再定配置”的思路,一步步带你把服务器选明白、搭起来。
我们会用一个比较实际的例子:做一个带WebUI界面的Stable Diffusion AI绘画站,前期自己和小圈子用,后面慢慢开放给更多朋友。所有例子都围绕“云服务器 + GPU”来展开,你可以边看边对照自己的需求。
一、先想清楚:你的AI绘画网站打算怎么用
在选配置前,先把使用场景想清楚,这比直接看参数重要得多。
可以从下面几个维度简单评估一下:
- 同时在线人数:是自己一个人用,还是经常有3~5个朋友一起试?还是打算做成小平台,长期有十几二十人排队出图?
- 出图分辨率和风格:主要玩512×512的小图、写真风,还是会经常生成1024×1024甚至更大尺寸、细节更多的大图?
- 模型复杂度:只用Stable Diffusion 1.5这种基础模型,还是会经常切换SDXL、各种LoRA、ControlNet等大模型?
- 访问方式:只是自己远程连服务器用WebUI,还是希望做一个简单的网站,让其他人通过浏览器输入提示词就能出图?
举个假设性例子:
- 你 + 3~5个朋友偶尔一起玩,主要出512×512、768×768的图,偶尔1024×1024;
- 模型以SD 1.5为主,偶尔试SDXL;
- 大家通过浏览器访问你搭好的WebUI;
- 并发出图量不大,同一时间最多2~3张图在跑。
如果你的情况和上面类似,那后面给出的配置区间,就可以直接参考。
二、GPU到底要多大?从“显存”这个关键点说起
做AI绘画,对云服务器来说,最关键的硬件就是GPU,而GPU里最关键的指标就是显存(VRAM)。显存大小直接决定了你能跑的模型、分辨率和批量大小。
以Stable Diffusion为例,不同显存大致能支持的场景如下(均为假设性示例):
- 8GB 显存:可以比较流畅地跑SD 1.5,出512×512、768×768的图问题不大,开启xformers等优化后,显存压力会小一些。这是很多人入门的“最低门槛”。
- 12GB 显存:用SD 1.5可以轻松跑1024×1024,也能比较舒服地试SDXL。如果你经常出大图、玩ControlNet,12GB会比8GB从容很多。
- 16GB~24GB 显存:可以同时跑多个模型,或者一次生成多张图,对高分辨率、复杂ControlNet、多LoRA叠加的场景更友好。适合有一定用户量、希望“稳一点”的平台。
简单总结一下:
- 个人或小团队、偶尔出图:8GB~12GB 显存基本够用;
- 经常出大图、模型多、并发略高:建议从16GB显存起步;
- 如果你对显存没概念,可以先记住一句话:在AI绘画场景里,宁可选显存大一点,也别卡在最低配置。
明确了显存需求,再去云服务器控制台看GPU型号时,就会更有方向。
三、云服务器整体配置怎么搭:CPU、内存、硬盘怎么选
除了GPU,CPU、内存、硬盘这些也不能随便选,它们会影响你安装环境、下载模型、处理任务的速度和稳定性。
还是以上面的“小圈子AI绘画站”为例,一个比较合理的起步配置可以是:
- CPU:4~8核都可以,AI绘画主要靠GPU,CPU太弱会影响解压模型、处理请求等,但也没必要上到几十核。
- 内存:至少16GB,推荐32GB。因为Stable Diffusion加载模型、处理图片时会占用不少内存,内存太小容易卡死或报错。
- 系统盘:至少80GB SSD,建议100GB以上。系统本身、CUDA、Python环境、Stable Diffusion代码加起来,会占用不少空间。
- 数据盘:如果打算多下几个大模型、LoRA、ControlNet,建议额外挂一块200GB~500GB的高性能云盘。模型文件单个就可能几个GB,很容易就把系统盘占满。
你可以把这个配置理解成一个“通用起步包”:
- CPU:4~8核
- 内存:16GB~32GB
- 系统盘:≥100GB SSD
- 数据盘:200GB~500GB(可选,但强烈建议)
- GPU:根据前面说的显存需求来定
这样搭出来的服务器,不管是自己玩,还是带几个朋友一起用,都会比较顺手。
四、在腾讯云上怎么选到合适的GPU云服务器
明确了“要几核CPU、多少内存、多大显存”之后,就可以去云服务商那边挑选具体机型了。以腾讯云为例,你可以这样操作:
- 打开腾讯云GPU云服务器页面,先选择离你或你用户比较近的地域,这样访问延迟会低一些。
- 在实例类型里,找到“GPU计算型”或“GPU渲染型”的系列,这些系列会提供NVIDIA等主流GPU。
- 根据前面确定的显存需求,筛选对应的GPU型号。比如,如果你觉得8GB~12GB够用,就优先看提供这个显存区间的机型;如果预算充足、想一步到位,可以直接看16GB、24GB甚至更大的。
- 选好GPU型号后,再确认CPU、内存、系统盘大小是否满足前面说的“通用起步包”标准。如果不够,就适当升级。
- 网络带宽方面,如果只是自己和朋友用,5~10Mbps一般够用;如果未来用户多了,可以考虑更高带宽或搭配CDN。
为了方便你对比,这里用一个假设性示例表格,展示不同使用场景对应的配置思路(注意:以下配置仅为举例,不代表腾讯云实际在售机型,具体请以控制台为准):
| 使用场景 | 建议GPU显存 | 建议CPU | 建议内存 | 建议系统盘 | 建议数据盘 |
|---|---|---|---|---|---|
| 个人玩,偶尔出图 | 8GB | 4核 | 16GB | 100GB SSD | 200GB |
| 小团队,3~5人,偶尔1024×1024 | 12GB | 6~8核 | 32GB | 100GB SSD | 300GB |
| 小平台,多模型,并发略高 | 16GB~24GB | 8核 | 32GB~64GB | 100GB SSD | 500GB |
你可以根据自己的情况,在表格里找到最接近的一行,再去腾讯云控制台按这个思路筛选机型。
如果你已经想好要哪一类GPU云服务器,可以直接通过下面这个链接进入腾讯云GPU云服务器页面,然后在里面按刚才说的步骤筛选配置:腾讯云GPU云服务器。这样你可以一边看文章,一边在控制台实操,选起来会更直观。
五、从零开始在云服务器上部署Stable Diffusion WebUI
选好服务器之后,下一步就是把它变成一个可以出图的AI绘画站。这里以Stable Diffusion WebUI为例,带你走一遍从零部署的流程。
1. 准备一台干净的Linux云服务器
建议选择Ubuntu 20.04或22.04 LTS系统,社区资料多,踩坑概率小。创建好实例后,先通过SSH登录服务器:
ssh root@你的服务器IP
登录后,先更新一下系统:
sudo apt update && sudo apt upgrade -y
2. 安装NVIDIA驱动和CUDA
因为是GPU云服务器,需要安装对应的NVIDIA驱动和CUDA Toolkit,才能让GPU正常工作。以Ubuntu 22.04为例,可以这样操作(具体版本以腾讯云官方文档或控制台提示为准):
添加NVIDIA驱动PPA源
sudo add-apt-repository ppa:graphics-drivers/ppa
sudo apt update
安装推荐驱动(这里以525为例,实际版本以控制台提示为准)
sudo apt install nvidia-driver-525
安装完成后重启
sudo reboot
重启后,执行nvidia-smi,如果能看到GPU信息,说明驱动安装成功:
nvidia-smi
接下来安装CUDA Toolkit,同样可以参考腾讯云官方文档给出的版本建议:
添加CUDA仓库密钥和源(以12.2为例)
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu22004/x86_64/cuda-keyring_1.0-1_all.deb
sudo dpkg -i cuda-keyring_1.0-1_all.deb
sudo apt update
sudo apt install -y cuda-toolkit-12-2
安装完成后,可以把CUDA路径加到环境变量里:
echo 'export PATH=/usr/local/cuda-12.2/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.2/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc
3. 创建Python虚拟环境
为了避免依赖冲突,建议创建一个独立的Python虚拟环境:
安装Miniconda(如果还没安装)
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
bash Miniconda3-latest-Linux-x86_64.sh
按提示完成安装,然后重启终端或执行 source ~/.bashrc
创建虚拟环境
conda create -n sd python=3.10
conda activate sd
4. 安装Stable Diffusion WebUI
用Git把Stable Diffusion WebUI的代码拉下来:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
然后安装Python依赖。这里以pip安装为例:
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu118
pip install xformers transformers diffusers accelerate
如果你在国内,下载依赖可能会比较慢,可以考虑配置国内PyPI镜像源,或者提前在有网络的环境下把依赖包下载好,再传到服务器上安装。
5. 下载模型
Stable Diffusion的模型文件比较大,可以从Hugging Face、CivitAI等网站下载。以SD 1.5为例:
mkdir -p models/Stable-diffusion
wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.ckpt -O models/Stable-diffusion/v1-5-pruned.ckpt
如果你经常换模型,建议把数据盘挂载到models目录,这样系统盘就不会被占满。
6. 启动WebUI
在stable-diffusion-webui目录下,执行启动脚本:
./webui.sh --xformers --listen --port 7860
这里简单解释一下几个常用参数:
--xformers:启用xformers优化,可以减少显存占用、提升出图速度(需要GPU支持);--listen:让WebUI监听所有网络接口,这样你就能通过浏览器访问服务器的IP:7860;--port 7860:指定端口号,默认是7860,如果被占用可以改成其他端口。
启动成功后,你会看到类似“Running on local URL: http://0.0.0.0:7860”的提示。这时候,在浏览器里输入http://你的服务器IP:7860,就能看到Stable Diffusion的WebUI界面了。
六、让朋友也能通过浏览器访问你的AI绘画站
如果你只是自己用,那到上一步就差不多了。但如果你想让朋友也能通过浏览器访问,还需要做两件事:
- 在腾讯云控制台的安全组里,放行你启动WebUI时用的端口(比如7860)。这样外部请求才能到达你的服务器。
- 确保服务器的防火墙(如果有的话)也放行了对应端口。
做完这两步后,你的朋友就可以在浏览器里输入http://你的服务器IP:7860,和你一起玩AI绘画了。
如果未来你想做一个更正式的网站,比如有用户注册、付费、排队系统,可以在Stable Diffusion WebUI前面加一层自己的后端服务,把出图任务通过API发给GPU服务器,再把结果返回给前端。不过这是后话,先把“能出图、能多人访问”这个基础功能搭好,是最重要的。
七、预算有限怎么办?从“够用”到“慢慢加”的思路
很多朋友会担心:GPU云服务器会不会很贵?如果预算有限,可以从“够用”的角度出发,先搭一个能跑起来的最小配置,等用户多了、需求明确了,再逐步升级。
比如,你可以这样规划:
- 第一阶段:个人或小团队用,选8GB~12GB显存的GPU,16GB内存,系统盘100GB,数据盘200GB。这个配置足够跑SD 1.5和大部分SDXL场景,出图速度也能接受。
- 第二阶段:用户变多,经常需要出大图、多模型切换,可以把GPU升级到16GB~24GB显存,内存加到32GB~64GB,数据盘扩大到500GB或更多。
- 第三阶段:如果真的做成了小平台,有稳定的付费用户,可以考虑多台GPU服务器做负载均衡,或者上更高端的GPU机型。
这种“从小配置起步,慢慢加”的思路,可以让你在控制成本的同时,也能随着业务发展灵活调整。
如果你现在就想先搭一个最小可用的AI绘画站,可以先按第一阶段的配置去选服务器。选好之后,再通过这个链接进入腾讯云GPU云服务器页面,看看有没有适合你预算和需求的机型:腾讯云GPU云服务器。这样你可以一边看文章,一边在控制台实操,选起来会更直观。
八、常见问题答疑
1. 我是新手,完全不懂Linux,能不能用Windows云服务器?
可以用,但不推荐。Stable Diffusion的社区资料和教程,大部分都是基于Linux的,遇到问题更容易找到解决方案。如果你实在不想用Linux,可以选带图形界面的Windows云服务器,但需要注意:Windows上的环境配置可能会更折腾,而且同样需要安装NVIDIA驱动和CUDA。
2. 我只有一台普通云服务器(没有GPU),能不能跑Stable Diffusion?
可以跑,但速度会非常慢,而且很多大模型根本跑不起来。因为Stable Diffusion对GPU算力要求很高,普通CPU服务器的出图时间可能是GPU服务器的几十倍甚至上百倍。如果只是想体验一下,可以用一些云厂商提供的“AI绘画API”或者“在线Stable Diffusion”服务,不用自己搭服务器。
3. 我选的GPU显存是8GB,能不能强行跑SDXL?
可以强行跑,但需要做一些优化,比如降低分辨率、减少采样步数、使用模型量化等。但这样出图速度和质量都会
| 厂商 | 配置 | 带宽 / 流量 | 价格 | 购买地址 |
|---|---|---|---|---|
| 腾讯云 | 4核4G | 3M | 79元/年 | 点击查看 |
| 腾讯云 | 2核4G | 5M | 188元/年 | 点击查看 |
| 腾讯云 | 4核8G | 10M | 630元/年 | 点击查看 |
| 腾讯云 | 4核16G | 12M | 1024元/年 | 点击查看 |
| 腾讯云 | 2核4G | 6M | 528元/3年 | 点击查看 |
| 腾讯云 | 2核2G | 5M | 396元/3年(≈176元/年) | 点击查看 |
| 腾讯云GPU服务器 | 32核64G | AI模型应用部署搭建 | 691元/月 | 点击查看 |
| 腾讯云GPU服务器 | 8核32G | AI模型应用部署搭建 | 502元/月 | 点击查看 |
| 腾讯云GPU服务器 | 10核40G | AI模型应用部署搭建 | 1152元/月 | 点击查看 |
| 腾讯云GPU服务器 | 28核116G | AI模型应用部署搭建 | 1028元/月 | 点击查看 |
所有价格仅供参考,请以官方活动页实时价格为准。