打造一个AI大模型,需要多少算力?

在席卷全球的AI热潮中,一个不容忽视的潜在阻力是算力的不足。算力是AI发展的基础设施,AI训练需要将数据集进行重复多轮处理,算力的大小代表着对数据处理能力的强弱。

据OpenAI测算,2012年开始,全球AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻一倍,目前计算量已扩大30万倍,远超算力增长速度。随着百度、360、华为等公司纷纷入局AI领域,国内厂商对算力的需求将迎来井喷。

综合OpenAI的研究经验,以及中国企业大模型的研发进度等因素,广发证券分析师刘雪峰等对国内AI大模型的训练和推理阶段算力需求,以及相应的成本进行了测算。

算力需求

首先,分析师根据GPT-3的数据测算了国内AI大模型训练和推理所需的AI服务器需求。

分析师认为:

根据商汤招股说明书的数据,GPT-3的大模型的所需要训练355个GPU-年。在当前各家公司推出AI大模型意愿较强的背景下,我们认为科技公司用于训练AI大模型的时间为1个月,因此其需要训练AI大模型的AI加速卡的数量为4260个。

我们认为,AI大模型有望成为各科技厂商竞争的关键领域,因此假设国内有意愿开发AI大模型的公司有10个,则由于AI大模型训练而新增的AI加速卡需求空间为4.3万个,国内由于AI大模型训练而新增的AI服务器的需求空间约为5325台(本文均假设单台AI服务器搭载8个AI加速卡)。

根据英伟达官网的数据,A100针对于BERT类的AI大模型可实现每秒推理1757次,因此可假设单片A100用于AI大模型每秒生成1757个单词,与单次客户需要生成的内容数量相当。

截止2023年3月27日,百度“文心一言”已收到12万家企业申请测试。我们预计,国产“类ChatGPT”的访客量规模较为庞大。

2023年3月29日,在“2023数字安全与发展高峰论坛”上,三六零公司现场演示了360大语言模型在360浏览器上的应用。分析师认为,内容生成类应用已成为各科技厂商开发AI大模型积极探索的方向,因此假设国内未来开发并应用“类ChatGPT”AI大模型的数量为10个。针对不同情境分析师进行了以下假设:

国产“类ChatGPT”的定位是仅给注册企业内部使用,则假设每天访问量为5000万人次,每人与ChatGPT对话5次,由此测算下来,由于AI大模型推理而新增的AI加速卡需求空间为4.3万个,新增的AI服务器需求空间为5425台。国产“类ChatGPT”的定位是面向个人用户开放使用,则分别假设每天访问量为1亿或3亿人次,每人与ChatGPT对话5次,由此测算下来,由于AI大模型推理而新增的AI加速卡需求空间为8.7万或26.0万个,新增的AI服务器需求空间为1.1万或3.3万台。

(责任编辑:AK007)