在最新一轮的 MLPerf 训练基准测试中,NVIDIA 再次展现了其在人工智能领域的绝对实力,以卓越的性能横扫所有测试项目。通过使用其先进的 Hopper H100 和 H200 GPU,NVIDIA 在大型模型如 GPT-3 175B 中实现了近乎完美的扩展,同时 Hopper 的速度也提升了 30%。
此次 MLPerf 测试结果显示,NVIDIA 的 AI 计算能力继续以惊人的速度增长,满足了不断增长的 Transformer 模型需求。自推出 Transformer 以来,AI 计算需求在短短两年内增长了 256 倍,而 NVIDIA 的 GPU 和软件优化正好迎合了这一趋势。
在性能方面,NVIDIA 的 H200 GPU 凭借其 141GB 的 HBM3 内存和超过 H100 GPU 40% 的内存带宽,进一步提升了 AI 训练的性能。此外,NVIDIA 的软件优化也功不可没,通过大量优化,使用 512 H100 GPU 配置的提交速度比一年前快了 27%。
值得一提的是,NVIDIA 在 LLM 微调任务中也表现出色。随着企业越来越多地寻求自定义预训练的大型语言模型,LLM 微调正成为关键的行业工作负载。NVIDIA 平台在这项新引入的 MLPerf 基准测试中可轻松从 8 个 GPU 扩展到 1024 个 GPU,显示了其处理各种规模 AI 任务的强大能力。
除了 LLM 微调,NVIDIA 还在其他多个基准测试中创造了新的世界纪录,包括图形神经网络、文本到图像的稳定扩散、目标检测、图像分类、NLP BERT-large 以及医学成像等。这些卓越的性能成果得益于 NVIDIA 不断升级和优化的硬件和软件堆栈。
总的来说,NVIDIA 通过持续的创新和优化,不仅提升了其 GPU 的硬件性能,还通过软件优化进一步放大了这些优势。这些努力使得 NVIDIA 在 AI 领域继续保持领先地位,并为企业提供了巨大的商业价值。随着 AI 需求的持续增长,NVIDIA 有望继续引领这一行业的发展。
网友评论