小众存储芯片“翻身”:火热的ChatGPT还会催热哪些芯片需求?

记者 | 彭新

编辑 |

由OpenAI开发的聊天机器人ChatGPT于去年末发布后,由于表现惊艳,近期在全球刮起了一股猛烈的旋风。微软和谷歌等巨头在此类技术上投入巨资。在国内,百度和其他互联网公司也表示正在开发此类技术,并即将推出。

GPT即预训练大语言模型(Generative Pre-trained Transformer),其基于自然语言处理模型Transformer进行预训练,并不断迭代提升模型能力。大语言模型等此类生成式AI通过海量数据训练,可以产生前所未有的高质量输出,可用于搜索、对话机器人、图像生成和编辑等。

微软使用ChatGPT技术,将其引入搜索引擎必应,借助对话式人工智能(AI),通过准确理解人类提问意图并做出回答,给搜索带来革新。除了文字,预训练大模型还能生成图像,与真人作画相比不分高下的AI画师过去数月多次涌现。

ChatGPT崛起,相关应用用户快速增长下,对运算基础的算力要求越来越高,也将对相关的芯片提出了需求。因其背后技术将高度依赖AI处理能力,并涉及与之相关的网络、存储和算力基础设施。

GPU为AI计算主流

ChatGPT高度依赖AI计算能力,而向OpenAI提供GPU芯片的英伟达正成为最大受益者,摩尔线程摩尔学院院长李丰解释,当人工智能模型通过算法生成内容时,即需要大量数据进行训练,这一过程即在GPU集群进行,随后训练完成的模型又部署在GPU集群进行推断,完成图像生成、语言聊天等工作。

“人工智能的算法是在不断进步和迭代过程当中,GPU实际上兼顾了灵活度以及计算能力,”李丰称,相比专用的AI芯片,GPU灵活性更强,又可以保证AI计算性能,因此受到开发者的欢迎。他提及,在全世界范围内,主要的增长算力的来源来自于GPU。

目前,ChatGPT背后的GPT-3.5模型已有超过1750亿个参数,训练成本高昂,根据国盛证券报告显示,GPT-3训练一次的成本约为140万美元,对于一些更大的大型语言模型,训练成本介于200万美元至1200万美元之间。

以ChatGPT在今年1月的独立访客平均数1300万计算,其对应芯片需求为3万多片英伟达A100 GPU图形处理器,初始投入成本约为8亿美元。此外,据花旗集团预估,ChatGPT将可能促使英伟达相关产品在12个月内销售额达到30亿至110亿美元。

这意味着,ChatGPT等此类应用将会拉动英伟达GPU芯片需求。英伟达公司的GPU图形处理器在大型AI模型培训市场占据主导地位,其股价今年已大涨55% 。

一家大型IT厂商的人工智能部门负责人向界面新闻记者表示,目前在训练端,英伟达是毫无疑问的冠军,其他玩家争夺的市场在于推断端,这部分的任务量较小,对功耗、延迟更敏感。李丰就提及,摩尔线程已经在内部测试,完全部署在摩尔线程GPU上的AIGC平台不久即面世,这是包括了图像生成、自然语言生成等一系列的内容生成平台。

(责任编辑:AK007)