英伟达曝AI专用“核弹”:GPT速度提高30倍

3 月 21 日晚上 11 点,英伟达 CEO 黄仁勋的演讲,为 GTC 2023 拉开序幕。

ChatGPT 和 GPT-4 掀起这股生成式 AI 热潮后,为 AI 提供心脏的英伟达成了背后的大赢家,也让今年的 GTC 注定成为有史以来最受关注的一届。

黄仁勋没有让关注者失望。

英伟达曝AI专用“核弹”:GPT速度提高30倍

「AI 的 iPhone 时刻已经到来。」70 分钟的演讲里,老黄重复了四五遍。

每次讲这句话前,他都会分享一项关于生成式 AI 的新进展——对创作、医疗、工业等领域的革命,让普通人用浏览器就能训练大模型的云服务,以及让大模型处理成本下降 10 倍的超级芯片……

「AI 的发展会超过任何人的想象。」这句话是对这场演讲最好的注脚。

1、让大语言模型的处理成本下降一个数量级

2012 年,Alex Kerchevsky、Ilya Suskever 和他们的导师 Geoff Hinton 在两块 GeForce GTX 580 上,使用 1400 万张图像训练了 AlexNet——这被认为是这一轮 AI 革命的开端,因为它首次证明了 GPU 可以用于训练人工智能。

英伟达曝AI专用“核弹”:GPT速度提高30倍

4 年后,黄仁勋亲手向 OpenAI 交付了第一台 NVIDIA DGX 超级计算机。此后数年,OpenAI 在大型语言模型上的突破让 AIGC 开始进入人们的视野,并在去年年底推出 ChatGPT 后彻底破圈。几个月内这个对话式 AI 产品吸引了超过 1 亿用户,成为历史上增长最快的 App。

NVIDIA DGX 最初被用作 AI 的研究设备,现在已经被企业广泛用于优化数据和处理 AI。根据黄仁勋,财富 100 强公司中有一半安装了 DGX。

在这之中,部署像 ChatGPT 这样的 LLM 正在成为 DGX 越来越重要的一项工作。对此,黄仁勋宣布了一种新的 GPU——带有双图形处理器 NVLink 的 H100 NVL。

英伟达曝AI专用“核弹”:GPT速度提高30倍

基于英伟达的 Hopper 架构,H100 采用 Transformer 引擎,被设计用于专门处理类似 GPT 这样的模型。与用于 GPT-3 处理的 HGX A100 相比,一个搭载四对 H100 和 NVLINK 的标准服务器的处理速度快 10 倍。根据官网数据,H100 的综合技术创新。可以将大型语言模型的速度提高 30 倍。

英伟达曝AI专用“核弹”:GPT速度提高30倍

(责任编辑:AK007)