ChatGPT大火后,各大科技企业纷纷发力AI大模型,作为通用的算力芯片开始供不应求。
大模型时代下,AI服务器市场激增,训练产品供不应求。
国际数据公司(IDC)最新发布《中国半年度加速计算市场(2023上半年)跟踪》报告显示,2023年上半年加速服务器市场规模达到31亿美元,同比2022年上半年增长54%。其中GPU服务器依然是主导地位,占据88%的市场份额,达到30亿美元。同时NPU、ASIC 和 FPGA等非GPU加速服务器以同比17%的增速占有了8%的市场份额,达到2亿美元。
从厂商销售额角度看,报告显示,2023年上半年,浪潮、新华三、宁畅位居前三,占据了70%以上的市场份额;从服务器出货台数角度看,浪潮、坤前、宁畅位居前三名,占有近60%的市场份额;从行业角度看,互联网依然是最大的采购行业,占整体加速服务器市场超过一半的份额,此外金融、电信和政府行业均有超过一倍以上的增长。
AI服务器需求暴增,机构指出,AI时代浪潮汹涌,海量数据催生庞大的算力需求,带动AI服务器需求量与日俱增,用于服务器内、外部数据传输等接口芯片也随之攀升。
中兴通讯:年内将发布支持大模型训练的最新AI服务器
中兴通讯在互动平台上称,公司作为国内主流的服务器厂商,一直积极应对AI领域的应用需求,及时推出满足各种AI应用场景的服务器产品。比如:(1)面向中小模型的训练和推理需求,今年1月公司推出的G5系列服务器,其中包括面向智能计算的异构算力服务器,内置10-20个异构计算智能加速引擎。(2)面向AI大模型训练和推理需求,公司将重点投入新一代智算中心基础设施产品,支持大模型训练和推理,包括高性能AI服务器、DPU等,其中,年内将发布支持大模型训练的最新AI服务器。
AI服务器是一种能够提供人工智能(AI)的数据服务器。它既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务。AI服务器有助于为各种实时AI应用提供实时计算服务。
AI服务器行业分析
AI服务器主要有两种架构,一种是混合架构,可以将数据存储在本地,另一种是基于云平台的架构,使用远程存储技术和混合云存储(一种联合本地存储和云存储的技术)进行数据存储。
AI服务器成本主要来自CPU、GPU等芯片,占比50%以上
服务器由电源、CPU、内存、硬盘、风扇、光驱等几部分构成,芯片成本(CPU、GPU等)占比较高,在25%-70%不等;