在英伟达举办的年度GTC开发者大会上,其CEO黄仁勋发表了名为《切勿错过AI的决定性时刻》(Don’t Miss This Defining Moment in AI)的演讲,在长达78分钟的视频中,他四次用“iPhone时刻”来形容AI当下的发展,并称“这将是我们迄今为止最重要的一次GTC大会”。
英伟达并没有让大家失望,会上不仅发布了可为ChatGPT提速10倍的专用GPU芯片,还向芯片制造业甩出一枚技术“核弹”。
▌ChatGPT专用GPU来了 处理速度提升十倍
针对算力需求巨大的ChatGPT,英伟达发布了NVIDIA H100 NVL,这是一种具有94GB内存和加速Transformer引擎的大语言模型(LLM)专用解决方案,配备了双GPU NVLINK的PCIE H100 GPU。
NVIDIA H100 NVL
黄仁勋表示,当前唯一可以实际处理ChatGPT的GPU是英伟达HGX A100(OpenAI便是使用A100 GPU训练和运行ChatGPT),而H100 GPU的处理速度比A100 GPU快十倍,可以将大语言模型的处理成本降低一个数量级。
此外,为了加速生成式AI开发及部署,英伟达宣布推出四款全新推理GPU——L4 Tensor Core GPU、L40 GPU、H100 NVL GPU、Grace Hopper超级芯片(见下图),分别擅长AI视频、图像生成、ChatGPT等大型语言模型的推理加速、推荐系统和大型语言模型的AI数据库。
▌以云服务打造新商业模式
值得注意的是,英伟达如今力推AI云服务,曾其比作当今AI系统的“操作系统”。在会上,英伟达宣布与谷歌云、微软Azure、甲骨文云联手推出DGX(AI超级计算机)云服务,加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations等,并宣布与日本三井联合打造了日本第一台用于加速药研的生成式AI超级计算机。
而使用H100芯片的云服务已经上线,OpenAI将通过微软Azure超级计算机用上H100。
简单来说,英伟达新的商业模式就是通过几家大的云来推广自家的AI产品。黄仁勋称,这种合作关系将英伟达的生态系统带到了云服务商手中,同时扩大了英伟达的市场规模和覆盖面。企业将能够每月租用DGX云集群,确保他们能够快速轻松地扩展大型多节点AI训练。
已有企业受益于此。
英伟达是哪个国家的!