GPU有哪些分类?GPU擅长处理大规模深度协作学习能力训练方法等典型HPC任务。经常有朋友咨询公司如何有效配置可用于深度学习或计算加速的GPU服务器。今天就来看看吧!
GPU服务器分类:
首先介绍一下常见的GPU和GPU服务器。以NVIDIA Tesla系列GPU为例,根据不同类型总线数据接口的发展,企业可以分为NV-Link接口技术和国内传统PCI-e总线。
1.Nv-link接口类型的gpu:典型代表是NVIDIA V100,采用DGX-2的SXM2接口和SXM3接口。
2.采用NV-Link总线技术标准的GPU服务器
DGX是英伟达设计的超级计算机的典型代表。DGX超级计算机不仅提供硬件,还提供相关的软件和服务。
3.具有传统PCI-e总线数据接口的GPU
面向主流专业计算的NVIDIA GPU加速主要有:P4/P40(P指上一代PASCAL架构的开头)、P100、V100和图灵架构特斯拉T4。而且只有细槽P4和T4,经常用来推理。现在有成熟的识别模型和推理。
4.传统的pci-e总线gpu服务器分为两类:
(1)OEM服务器:通过NVIDIA官方测试和厂商认证。例如,广泛的技术不仅是英伟达的合作伙伴,也是该公司加速英伟达的潜在AI计划的成员;
(2)非OEM服务器还包括许多不同类型的企业。
选择的基本原则:在选择GPU服务器时,首先要考虑企业的业务发展需求,选择合适的GPU型号。在HPC高性能数据计算中,我们需要根据不同的精度进行选择。例如,他们的一些高性能计算方法需要双精度。这时候如果可以用P40或者P4,那就不合适了。只能用V100或者P100,对显存容量也会有要求。比如石油或石化勘探中计算技术的应用,对显存的要求更高,有的还对总线控制标准有要求。因此,本文中GPU型号的选择首先取决于业务市场需求。
在服务器人工智能领域也有很多应用。GPU虚拟化在场景中要求更高。根据数量的不同,需要从GPU服务器虚拟化30或60个虚拟GPU,所以批量训练需要GPU,通常使用V100进行GPU训练。模型训练需要推理,所以推理一般是P4或者T4,少数情况是V100。
评论前必须登录!
注册