0


哪家云服务器好跑AI?瞄准AutoDL(附NVIDIA GPU 算力排名表)

#AutoDL #GPU #租显卡

最近本地GPU显存告急,需要搬迁到云服务器,既然选就得选个稳定且性价比高的,毕竟这个活是真烧钱呐。

0.先附上我整理好的算力排行天梯图,按实际需求选一张FP16算力给力的卡,

  • PS:为什么是FP16? 因为推理主要是看半精度算力。

NVIDIA GPU 算力对比表

数据中心 / AI训练卡

GPU型号FP32 (TFLOPS)FP16 (TFLOPS)FP8 (TFLOPS)显存容量发布年份H100 PCIe511,9793,95880GB2022H100 SXM5672,0394,07880GB2022H800 PCIe511,9793,95880GB2023H800 SXM5672,0394,07880GB2023A100 PCIe19.5312N/A40/80GB2020A100 SXM419.5312N/A40/80GB2020V100 SXM215.7125N/A32GB2017V100 PCIe14.0112N/A16/32GB2017

RTX 40系列(这么一对比是不是发现4090这货的牙膏挤的太猛…)

GPU型号FP32 (TFLOPS)FP16 (TFLOPS)FP8 (TFLOPS)显存容量发布年份RTX 409082.6165.2N/A24GB2022RTX 40804998N/A16GB2022RTX 4070 Ti4080N/A12GB2023RTX 407029.158.2N/A12GB2023RTX 4060 Ti22.144.2N/A8/16GB2023RTX 406015.130.2N/A8GB2023

RTX 30系列

GPU型号FP32 (TFLOPS)FP16 (TFLOPS)FP8 (TFLOPS)显存容量发布年份RTX 3090 Ti4080N/A24GB2022RTX 309035.671.2N/A24GB2020RTX 3080 Ti34.168.2N/A12GB2021RTX 308029.859.6N/A10/12GB2020RTX 3070 Ti21.743.4N/A8GB2021RTX 307020.340.6N/A8GB2020RTX 3060 Ti16.232.4N/A8GB2020RTX 306012.725.4N/A12GB2021

RTX 20系列

GPU型号FP32 (TFLOPS)FP16 (TFLOPS)FP8 (TFLOPS)显存容量发布年份RTX 2080 Ti13.426.8N/A11GB2018RTX 2080 Super11.222.4N/A8GB2019RTX 208010.120.2N/A8GB2018RTX 2070 Super9.118.2N/A8GB2019RTX 20707.515N/A8GB2018RTX 2060 Super7.214.4N/A8GB2019RTX 20606.513N/A6GB2019

备注:
  1. TFLOPS数据为理论峰值,实际应用性能可能会有所不同
  2. N/A表示该显卡不支持该精度的计算
  3. H800是H100的特供版本,主要面向中国市场,核心计算能力与H100相同

很好,就你了,

V100 32GB

在这里插入图片描述

  • 又忍不住想吐槽一下皮衣黄‌在这里插入图片描述

1.先到社区找个合适的镜像,先对齐Linux版本、CUDA版本,Python版本后即可一键启动,然后再登录到容器里按需修改配置、库的版本等。

在这里插入图片描述

2. 核心需求是集成AI语音、AI画图,所以非GPT-SoVITS、SD莫属。

在这里插入图片描述

选择最新版本,一键

创建实例

:

在这里插入图片描述

  1. 首先登上AutoDL后台,点击控制台,左侧选择已启动的实例后,复制登录账号和密码,然后在本地电脑用SSH登录。
  2. 连接成功后,输入以下命令启动:echo {}> ~/GPT-SoVITS/i18n/locale/en_US.json && source activate GPTSoVits && cd ~/GPT-SoVITS/ && python webui.py zh_CN
  3. 此时GPT-SoVITS的WebUI的全部功能页均可使用使用public URL的gradio地址打开

安装Stable-Diffusion-WebUI

  1. 避免和前面的python环境冲突,需要独立安装venv环境sudoaptinstall python3.10 -venv -y
  2. 然后克隆代码:git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui &&cd stable-diffusion-webuipython3.10 -m venv venv
  3. 启动./webui.sh
  4. 如果环境出现问题,可手动验证能否识别pytorh:import torchtorch.cuda.is_available()
来几张SD生成的图:

在这里插入图片描述
在这里插入图片描述

标签: AutoDL GPU 租显卡

本文转载自: https://blog.csdn.net/qq_42183962/article/details/143678985
版权归原作者 木法星人 所有, 如有侵权,请联系我们删除。

“哪家云服务器好跑AI?瞄准AutoDL(附NVIDIA GPU 算力排名表)”的评论:

还没有评论