在台北国际电脑展(Computex 2024)上,英伟达 CEO和苏姿丰AMD董事长兼CEO苏姿丰都展示了各自在AI数据中心芯片的发展规划。
英伟达下一代芯片是Rubin
英伟达 CEO 黄仁勋宣布,将于2025年推出Blackwell Ultra芯片,2026年推出Rubin人工智能芯片平台。这标志着英伟达的人工智能加速器将转向年度更新周期。
Rubin架构遵循3月份宣布的Blackwell模型,该模型将于2024年晚些时候发货。“我们正在看到计算膨胀,”黄说,强调需要加速计算来管理不断增长的数据处理需求。他强调了英伟达的技术,该技术承诺节省98%的成本,减少97%的能耗。
此前,英伟达的人工智能芯片更新时间表为两年。向年度发布时间表的转变突显了人工智能芯片市场的竞争激烈程度,以及英伟达为保持其领导地位所做的努力。鲁宾平台将采用新的gpu和名为Vera的中央处理器,尽管细节很少。
黄宣布,即将推出的鲁宾人工智能平台将采用下一代高带宽内存HBM4.到2025年为止,SK海力士已经基本售罄,这种存储器的需求量很大,成为人工智能加速器生产的瓶颈。黄没有提供鲁宾平台的详细规格,该平台将接替Blackwell。
AMD展示加速器路线图
不仅仅是英伟达,在2024年国际电脑展的开幕主题演讲中,AMD董事长兼CEO苏姿丰展示了AMD Instinct加速器系列的增长势头。AMD公布了一份为期数年的扩展版AMD Instinct加速器路线图,介绍了领先的人工智能性能和内存能力的年度节奏。
在2026年,AMD计划发布基于AMD CDNA“Next”架构的AMD Instinct MI400系列,该系列将提供最新的特性和功能,以提高AI训练和推理的性能和效率。
在Computex上预览的第五代AMD EPYC处理器,代号为“Turin”,将采用“Zen 5”核心,延续AMD EPYC处理器家族的高性能和高效率。这些处理器预计将于2024年下半年上市。
路线图从AMD Instinct MI325X加速器开始,该加速器将于2024年第四季度上市。该加速器将具有288GB的HBM3E内存和每秒6TB的内存带宽,使用与MI300系列相同的通用基板设计。它拥有业界领先的内存容量和带宽,分别是竞争对手的2倍和1.3倍,并提供1.3倍的计算性能。
在此之后,AMD Instinct MI350系列,由新的AMD CDNA 4架构,预计在2025年。与具有CDNA 3架构的MI300系列相比,它承诺将AI推理性能提高35倍。
AMD Instinct MI350X加速器将是该系列的首款产品,采用先进的3nm工艺技术,支持FP4和FP6人工智能数据类型,并包括高达288 GB的HBM3E内存。
网友评论