企业站

英伟达推出迄今为止最强AI芯片GB200

Asgardia 原创 2024-03-19 08:32:36
企业站_资讯眼

正在举办的英伟达GPU技术大会(GTC)上,英伟达CEO黄仁勋宣布推出新一代GPU ——名为Blackwell的B200 GPU,以及由两片B200与一颗Grace CPU组合而成的第一款Blackwell芯片名为GB200.将于今年晚些时候上市。从ChatGPT开启的人工智能热潮以来,英伟达正在用更强大的芯片来吸引客户,以刺激新订单。

黄仁勋在之前的技术开发者大会上表示:“Hopper很棒,但我们需要更强大的GPU。”

Blackwell拥有2080亿个晶体管,采用台积电4nm制程。前一代GPU“Hopper”H100采用4nm工艺,集成晶体管800亿。英伟达表示,基于Blackwell的处理器,如GB200,为人工智能公司提供了巨大的性能升级空间,其AI性能为20 PetaFLOPS的 FP4 算力,而H100为4 PetaFLOPS。该系统可以部署一个27万亿参数的模型。据称GPT-4使用了约1.76万亿个参数来训练系统。

Blackwell GB200的出现对英伟达来说应是一个新的利好,这些新的性能参数的亮相相信会对大模型芯片市场其他参与者构建更为复杂的挑战,来自推理芯片设计公司Groq和高端CPU供应商(如Cerebras)的竞争,以及老牌厂商AMD和英特尔。

目前来看,英伟达的高端服务器GPU仍是训练和部署大型人工智能模型至关重要的基础设施。此前微软和Meta等公司已经花费了数十亿美元购买这些芯片。

英伟达介绍,该芯片使用了专门用于运行基于大模型人工智能的“大模型引擎”,而这这是ChatGPT的核心技术之一。Blackwell GPU很大,将两个单独制造的小芯片集成到一个由台积电制造的大芯片中。它还将应用到一个名为GB200 NVLink 2的完整服务器中提供,该服务器结合了72个Blackwell GPU和其它Nvidia用于训练人工智能模型的部件。

AWS、谷歌、微软和甲骨文将通过云服务出售GB200的访问权限。英伟达表示,AWS将构建一个包含2万个GB200芯片的服务器集群。

对此,天风国际分析师郭明錤发文表示,此前GH200的出货低于预期,全球主要客户仅Amazon采用。故英伟达对GB200会寄与厚望,并刻意扩大GB200与B100/200的规格差距 (主要是NVlink相关与网路速度),以期透过方案区隔与差异化,提高客户采购GB200的意愿。

英伟达还宣布,它将在其英伟达企业软件订阅中添加一款名为NIM的新产品,NIM代表英伟达推理微服务。NIM可以更容易地使用旧的英伟达GPU进行推理,或者运行人工智能软件的过程,并允许公司继续使用他们已经拥有的数亿个英伟达GPU。与新人工智能模型的初始训练相比,推理需要更少的计算能力。NIM允许那些想要运行自己的人工智能模型的公司,而不是从OpenAI等公司购买人工智能结果的服务。

英伟达将与微软或Hugging Face等人工智能公司合作,确保它们的人工智能模型能够在所有兼容的英伟达芯片上运行。然后,使用NIM,开发人员可以在他们自己的服务器或基于云的Nvidia服务器上有效地运行模型,而无需冗长的配置过程。

点击展开全文
打开APP,阅读体验更佳

网友评论

聚超值推荐

更多优惠

相关推荐

老罗居然带货卖云了,阿里云的6大疑问 原创 企业站 资讯
老罗居然带货卖云了,阿里云的6大疑问
思必驰亮相AWE2024:沟通万物、打理万事 原创 企业站 资讯
思必驰亮相AWE2024:沟通万物、打理万事
美政府下周将向英特尔注资 原创 企业站 资讯
美政府下周将向英特尔注资
CXL在AI时代已死 原创 企业站 资讯
CXL在AI时代已死
Pure解决了DRAM的限制来扩展SSD容量 原创 企业站 资讯
Pure解决了DRAM的限制来扩展SSD容量
Cerebras发布第三代晶圆级AI芯片 原创 企业站 资讯
Cerebras发布第三代晶圆级AI芯片
台积电和SK海力士合作生产HBM4 原创 企业站 资讯
台积电和SK海力士合作生产HBM4
博大数据深圳前海智算中心,正式开园! 原创 企业站 资讯
博大数据深圳前海智算中心,正式开园!
Claude 3 Haiku已在Amazon Bedrock上可用 原创 企业站 资讯
Claude 3 Haiku已在Amazon Bedrock上可用
马斯克AI大模型Grok开源:参数量达3140亿 原创 企业站 资讯
马斯克AI大模型Grok开源:参数量达3140亿
相关产品
取消