2023年12月中旬,Intel正式发布代号为“Emerald Rapids”的面向数据中心和高性能计算环境的第五代 Xeon系列处理器,Emerald Rapids处理器采用Intel 7工艺,与上一代软件和平台兼容,配备Raptor Cove ISA 的 P-Core性能核心,最多可封装64 个核心、128 个线程和高达480MB 的三级缓存;与上一代Sapphire Rapids相比,其差异在于tile structure结构,即为2个tiles。在CPU布局方面,2个核心通过Modular Die Fabric连接缓存阵列,并拥有4个内存控制器、8通道DDR5-5600内存支持。此外,该处理器两个 die 之间还配备了6个PCIe控制器、4个UPI通道和4个加速引擎。功率范围与上一代产品相同,但可提供更强大的计算能力和更快的内存,并为 AI、高性能计算、数据库、网络和存储带来巨大的性能和总拥有成本优势。
第五代英特尔至强可扩展处理器每个内核都具备 AI 加速功能,无需添加独立加速器,就可处理要求严苛的 AI 工作负载,包括对参数量多达 200 亿的模型进行推理和调优。
通过更高的内存带宽克服数据瓶颈,提高计算性能。与 DDR4 相比,DDR5 的带宽提升高达 66%,因此有机会提升性能、容量和能效并降低成本。
提供全新的 I/O 速度,因此有机会最大限度地提高 CPU 和设备之间的吞吐量。第五代英特尔® 至强® 处理器拥有多达 80 个 PCIe 5.0 通道,是快速网络、高带宽加速器和高性能存储设备的理想选择。与第四代英特尔至强处理器相比21% 整体性能的提升,42% 推理性能的提升,16% 内存速度的提升,2.7 倍三级缓存的提升,10 倍每瓦性能的提升。
第五代英特尔至强可扩展处理器在通用计算方面表现出色,将持续为支持当下各种关键工作负载奠定有力基础。这些处理器采用了英特尔® 高级矩阵扩展(Intel® Advanced Matrix Extensions,英特尔® AMX)这一内置 AI 加速器,可加速基于 CPU 的深度学习推理和训练。在很多情况下,这能够消除独立加速器导致的额外成本和复杂性。新一代 英特尔® 至强® 处理器非常适合参数量在 200 亿 (20B) 以下的大语言模型 (LLM),通常可满足客户服务级别协议 (SLA) 要求。英特尔® AMX 在迁移学习和调优方面也非常出色,只需短短 4 分钟(而非数小时或数天)即可完成模型训练,而无需借助其他硬件。 65% 的数据中心推理都在英特尔® 至强® 处理器上运行,因此客户可受益于其现有的通用 AI 架构,而无需为迁移到 GPU 基础设施的复杂性而苦恼。
无论是将英特尔® 至强® 处理器用于处理本地工作负载,还是处理云端,或边缘工作负载, 内置英特尔® 加速引擎的英特尔® 至强® 处理器都能够助力您的业务达到新高度。这些加速引擎具备一系列优势,包括数据保护力更强、基础设施利用得更充分。 从英特尔第三代至强处理器助力腾讯打造了云小微智能语音与视频服务接,为腾讯云小微智能语音与视频服务接入平台注入强劲动力。到Gunpowder 使用英特尔第四代至强处理器运行 Google Cloud C3 实例,以加快渲染速度。到京东云上线了基于第五代英特尔® 至强® 可扩展处理器的新一代京东云服务器,比上一代服务器的整体性能提升23%。在大模型落地过程中,面临算力需求指数级增长、算力成本高、异构复杂度高等挑战。在此背景下,英特尔® 至强处理器不断更新迭代,在模型推理性能上提供更卓越的表现,更高的敏捷性,成为用户搭建 AI 算力系统的理想之选。
网友评论