分享便宜实惠
高性价比独服

2023年,大模型竞争下的IDC市场(2021模型展)

无论是ChatGPT-4还是文新,本质都是算法大模型带来的AI军备竞赛,而除了这些大公司,大模型的出现有望带动AI服务器需求的爆发。CPU、内储、外储作为服务器的核心部件,受益于大型号的井喷发展,板块也将得到进一步的关注。本文重点介绍AI大模型服务器。

所谓的“大模型”通常是在无标签的大数据集上通过自监督学习来训练的。后来在其他场景的应用中,开发者只需要对模型进行微调或者使用少量数据进行二次训练,就可以满足新的应用场景的需求。

ChatGPT-4服务器试用版:

一、大模型的基础:计算场景升级为AI,CPU+GPU为核心。

服务器经过通用服务器-云服务器-边缘服务器-AI服务器四种模式,AI服务器使用GPU增强并行计算能力。

AI大模型服务器根据应用场景可以分为训练和推理。训练需要更高的芯片计算能力。据IDC预测,随着大模型的应用,2025年推理计算能力需求占比有望提升至60.8%。

AI大模型服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,目前国内主要选择CPU+GPU(占比91.9%)。

AI大型模型服务器的成本主要来自CPU、GPU等芯片,占比25%-70%,训练服务器80%以上的成本来自CPU和GPU。

大模型是人工智能发展的必然趋势,是辅助人工智能向通用人工智能转变的坚实基础,可以大大提高生产力。通过学习一种特征和规则,可以建立一个高效的通用模型,并在此基础上进行微调,可以应用于不同的场景。

以前大家都是自己开发模型,单个AI应用场景需要多个模型支撑。每个模型都需要算法开发、数据处理、模型训练等过程,消耗大量资源。在AI时代,这样低效的开发显然不是谷歌、微软、百度等公司所希望的。

现在,大模型已经实现了标准化的AI R&D范式,可以用简单的方式进行规模化生产,不仅可以降低自身AI开发的门槛,实现“低成本”、“高效率”,还可以将这种模型应用到有定制需求的企业。

所以基于这个基础,大模型的开发就成了互联网发展的必然结果。这个结果的底层技术支持是计算能力。计算能力是构建大规模模型生态的必要基础。其中,服务器作为计算能力的载体,无疑是大模型开发的重要支撑。而这些都将在文新和ChatGPT中起到决定性的作用,帮助这些大模型实现从输入到输出。

2023年,大模型竞争下的IDC市场(2021模型展)-找独服

二是ChatGPT等大模型训练推理需求激增,带动AI服务器市场快速增长。

据预测,ChatGPT-4的参数数量最大为1.5万亿。因为参数与计算能力需求成正比,所以可以估算出GPT-4的计算能力需求高达31271 p flop/s-day。随着国内外厂商加速布局数千亿参数的大模型,培训需求有望进一步增长。叠加大模型的应用将带动推理需求的快速增长,共同驱动计算革命,助推AI服务器市场和出货量的快速增长。

服务器比普通电脑速度更快,负载更大,价格更高,但内部结构和普通电脑差别不大。当然,服务器的架构会随着负载的扩大而不断优化。当前的服务器体系结构已经从传统的单一模式转变为集群模式,进而发展成为具有广阔应用前景的分布式体系结构。

在分布式架构中,将整个系统按照不同的功能划分为多个功能单一的子模块,每个模块放入不同的服务器中相互配合,形成一个服务器网络,服务器也是区块链应用的底层技术支撑。

随着应用需求的不断扩大,不同架构的服务器正在遍地开花。人工智能应用场景中的加速计算服务器,因其强大的计算能力,成为服务器中的核心驱动力。从最近文新到ChatGPT-4的话来看,AI场景下的加速计算服务器已经成为每个家庭计算能力和模型的基础,AI服务器的价值也在逐渐凸显。

AI服务器不同于通用服务器。作为计算力载体,更擅长海量数据处理和计算,可为人工智能、深度学习、神经网络、大模型等场景提供广阔的动力源,广泛应用于医药、材料、金融、科技等行业。未来,AI服务器必将为数字经济时代的发展提供强大的驱动力。

如果将当前的ChatGPT部署到谷歌进行的每一次搜索中,将需要512,820.51个A100 HGX服务器和总共4,102,568个A100GPUs,仅资本支出一项,这些服务器和网络的总成本就将超过1000亿美元。在生成式AI模式的广阔应用背景下,预计中长期内对高计算能力服务器的需求仍将保持旺盛,支撑它们的交换机、服务器等数据中心计算基础设施也将迎来新一轮的快速增长。

打赏
未经允许不得转载:找独服 » 2023年,大模型竞争下的IDC市场(2021模型展)

评论 抢沙发

评论前必须登录!