成本降低12倍!英伟达升级版大模型芯片明年投产,黄仁勋:AIGC时代来了

  美国AI(人工智能)芯片巨头英伟达发布数据中心领域重磅芯片,剑指竞争对手AMD。

  当地时间8月8日,英伟达(NVDA.US)CEO黄仁勋身穿经典皮衣,在计算机图形学顶会SIGGRAPH 2023现场发布新一代GH200 Grace Hopper超级芯片,并宣布将在2024年第二季度投入生产。GH200专为人工智能大模型设计,用于扩展全球的数据中心。

  黄仁勋表示,生成式AI(AIGC)时代来临,英伟达将继续大力推动生成式AI发展的决心。

  《华尔街日报》指出,这是英伟达对于AI数据中心芯片市场最大竞争对手AMD的“反击”,英伟达此前就已经预告将发布与AMD的Insight MI300X CPU + GPU对打的产品,后者是今年6月AMD刚刚发布的大模型专用芯片。

  GH200超级芯片将于明年投入生产,较H100更强

  GH200全球首发采用HBM3e高带宽内存,与英伟达目前最高端的AI芯片H100使用同样的GPU,但不同之处在于,GH200将同时配备高达141G的内存和72核ARM中央处理器,每秒5TB带宽。和现有Grace Hopper型号相比,最新版本的GH200超级芯片能够提供3.5倍以上的内存容量和3倍以上的带宽。和H100相比,GH200超级芯片的内存增加了1.7倍,带宽增加了1.5倍。全新一代的GH200预计明年二季度开始生产。

  黄仁勋表示,一台服务器可以同时装载两个GH200超级芯片,大型语言模型的推理成本将会大幅降低。

  据介绍,投资800万美元Grace Hopper,就相当于8800个价值1亿美元的x86 GPU,意味着成本降低12倍,能耗降低20倍。

  GH200专为加速计算和生成式AI时代而打造,以巩固英伟达在AI界的主导地位,应对其老对手AMD于6月推出的数据中心APU(加速处理器)Instinct MI300系列的更新。

  更厉害的地方在于,在内存和运算能力得到大幅度提升的基础上,GH200超级芯片还可以基于NVLink技术继续拓展互连,让GPU有能力访问全部的CPU内存,帮助客户减少机器数量并更快地完成工作。为了突出产品的这一特性,黄仁勋在演讲中屡次幽默地重复自己的口头禅:“你买得越多,就省得越多(The more you buy, the more you save)。”

  “任何人都可以成为程序员”

  在本次演讲中,生成式AI成为了被黄仁勋挂在嘴边的一大关键词。他在演讲中展示了图像和AI之间的不可分割性,表示AI既能够在虚拟世界中学习,也能够帮助搭建虚拟世界。

  “大型语言模型是一个新的计算平台……人类就是新的编程语言,我们已经使计算机科学民主化,现在任何人都可以成为程序员,”黄仁勋在会议上说道,“时隔15年左右,终于有新的计算平台出现了,计算机本身必然会以截然不同的方式处理信息。”

  美国科技媒体TechCrunch评价道,作为一款最新的、专门面向数据中心的AI开发硬件,在性价比高且耗能低的GH200即将推出的当下,再花费数百万美元为CPU机架等上一代计算资源进行投资研发将成为一种愚蠢的行为。虽然黄仁勋并未在演讲中提及AI目前面临的许多挑战、监管乃至概念上的变化,但他为观众展现了一个属于AI的积极前景。

(责任编辑:AK007)