CXL是什么?为什么能让Intel放弃傲腾? 您所在的位置:网站首页 傲腾的谢幕作 CXL是什么?为什么能让Intel放弃傲腾?

CXL是什么?为什么能让Intel放弃傲腾?

2023-09-04 03:06| 来源: 网络整理| 查看: 265

0 分享至

用微信扫码二维码

分享至好友和朋友圈

傲腾,大家都知道,是Intel在2017年前后推出的一种新型存储介质,具有高性能(同等水平的读写性能)、低延迟与高寿命等特点。并有傲腾SSD和傲腾持久内存两种产品形态。

傲腾SSD(图上)与傲腾持久内存

最新一代的傲腾SSD采用PCIe 4.0、容量可达3.2TB的P5800X,只有U.2和M.2两种形态;傲腾持久内存,黑色为第一代PM100系列,蓝色为第二代PM200系列,两代产品容量并无变化,但据称第二代性能有提升。

Intel希望傲腾解决什么问题?

下面这张图大部分人应该都比较熟悉:

Intel“性能金字塔”,傲腾持久内存则作为DRAM内存的补充,提供大容量优势

抛开傲腾SSD,只谈傲腾持久内存,傲腾持久内存可以当大容量内存使用(性能不如DRAM),系统内仍需要DRAM内存来作为傲腾的缓存;也可以当持久存储(存放应用数据)使用,提供最快的读写性能。这两种使用模式都要占据服务器内有限的DIMM插槽,而使用的优劣势,只能说见仁见智,反正没能在市场上大规模使用。

用户希望解决什么问题?

企业(尤其是互联网公司)数据中心规模越来越大,服务器数量越来越多(互联网巨头的服务器数量大多以百万计,比如AWS、Google、微软与阿里),必然对DRAM内存的采购量越来越大,由于规模效应,必然对可控的成本有着极高的要求。但是因为DRAM内存技术原因,DRAM内存的单位成本(每GB成本)只能降到一定程度。

互联网巨头们希望DRAM内存的单位成本像红线那样持续走低,但现实却是蓝线,在2015年前后就基本保持稳定

同时还有另一个非常关键的问题——算力。处理器的核心数量越来越多,尤其是“Chiplet”技术让核心数量迅速翻倍,以AMD EPYC处理器为例,从最开始的32核心,发展到64核心,最新的“热那亚”可达96核心,即将到来的采用“Zen 4c”微架构的“贝加莫”将达到128核心。而DRAM内存技术的停滞,意味着每核心获得内存带宽是下降的。

CPU核心增长趋势与每核心平均分配到的内存带宽

每核心可用内存带宽不增长也就算了,居然还下降了!是可忍孰不可忍?企业(尤其是互联网公司)对算力的追求是非常极致的,那么现在DRAM严重阻碍了算力增长,该如何解决内存的可扩展性(大容量和带宽)与可控成本的需求呢?这就是CXL诞生的原因,下图是CXL联盟董事会成员Google和Meta展示的解决方案:

CXL联盟(Meta与Google)的解决方案:使用CXL对DRAM进行扩展,实现性能和容量的增长

CXL到底是什么?

CXL的全称是Compute Express Link,顾名思义,是CPU到设备、CPU到DRAM内存的高速连接标准。这些设备包括诸如ASIC、FPGA、SmartNIC(智能网卡)、GPU等,以及实现DRAM内存扩展。CXL联盟就是制定CXL规范的组织,内部几乎包含了整个IT互联网业界的顶流,下图是其董事会成员公司:

CXL联盟董事会成员,阿里和华为是15位董事会成员中唯二的中国公司

除了董事会成员以外,包括腾讯、无锡众星微、浪潮、联想与凡甲科技等是贡献者会员,而采用者中的中国公司就更多了,在此就不一一列举了。总的来说,CXL在合并了包括Gen-Z(HPE)、OpenCAPI(IBM)以及CCIX (Xilinx )等开放标准之后,俨然已成为IT互联网界的顶级标准组织之一。

CXL标准主要由三大协议构成:CXL.io:基于PCIe规范,但进行了增强,主要提供配置、链接初始化和管理、设备发现和枚举、中断、DMA等。CXL.cache:允许其他设备以极低延迟去访问主机DRAM内存CXL.mem:允许主机(CPU)通过使用易失性(如RAM)或非易失性存储(如闪存)的load/store命令去访问其他设备的内存。

基于PCIe规范层次化设计(物理电气层、链路层和传输层),CXL在相应协议层添加相应协议,以实现新传输能力

简而言之就是,以前CPU与其他设备(比如GPU)都是各自使用各自的内存,现在CXL允许将两者的内存整合到一起,让两者通过基于PCIe的CXL可以互相访问,没有“中间商赚差价”,所以能高性能低延迟。

各代PCIe协议所能提供的带宽,PCIe 6.0和PCIe 7.0的x16条通道带宽还是很有诱惑力的

目前,CXL 3.0规范已经在今年8月发布,基于PCIe 6.0,而之前的CXL 2.0及更早的版本则基于PCIe 5.0。结合PCIe 6.0标准来看,16条PCIe通道下,带宽高达121GB/s;而PCIe 7.0则高达242GB/s,那基本上能与内存带宽不相上下,也就是说,CXL理论上是可行的。

CXL该怎么用?

CXL怎么用要取决于实际目的和设备。比如设备分为不带内存/缓存的设备(如NIC网卡)和自带内存/缓存的加速器(最典型的就是GPU),同时如前文所说的,互联网巨头希望增大内存容量和性能,也就是内存扩展目的。

根据这些实际场景,CXL也就分为三种用法,如下图:

CXL的三种使用场景

将主机DRAM内存分享给加速器:诸如NIC等无缓存或只有少量缓存的情况下,希望增大缓存,利用CXL(即CXL.io和CXL.cache)就可以利用CPU的DRAM内存,显著提高可使用的内存容量,且无需经过繁琐的流程。这一点有点像Intel的集成显卡。

提升CPU与加速器之间的协同效率:诸如AI之类的应用,需要GPU等设备的并发性能来提高响应速度,但是GPU的缓存有限,且计算结果告知CPU需要数据搬运,而利用CXL实现CPU与GPU之间的内存互访,降低延迟。

扩展主机DRAM内存容量:由于CPU的DIMM插槽是有限的,提升服务器DRAM内存容量的传统做法是增加服务器内部的CPU数量,比如四路、八路及以上服务器,技术复杂,成本高,而且性能并不能线性(典型如一台八路服务器的性能并不是两台四路服务器之和)。所以利用CXL能在不增加CPU数量的情况下显著提升DRAM内存容量。

同时,在CXL 2.0规范中还实现了“内存池(Memory Pooling)”的应用,根据实际应用需求的不同,可以实现下面三种配置:

CXL 2.0规范可以实现内存池,既可以给主机单独分配,也可以共享使用,即使没有CXL 2.0 Switch也能实现

而在今年8月FMS 2022大会上发布的CXL 3.0则进一步增强了CXL的实际使用,利用CXL可以组成一个矩阵,在更大尺度形成统一的“内存资源池”,并按需分配,如下图所示:

CXL3.0可实现环形连接

换一种说法就是,可以在更大尺度上设计服务器,比如以整个机柜为一台服务器,分别形成不同的资源池,比如CPU资源池、DRAM内存资源池以及加速器资源池等等。

而Marvell公司更是进行了一个很大胆的设想,将CXL与NVMe-of组合起来使用,形成数据中心的新架构,如下图:

Marvell公司提出的新构想:利用CXL整合计算资源,用NVMe-of整合存储资源

其他关于CXL 3.0规范中的更新:

与上几个版本的CXL规范相比,CXL 3.0规范升级并新增了很多功能,极大地增强了CXL的实用性

都哪些产品支持CXL?

既然CXL的前景如此美好,但目前能支持CXL的产品还比较少,毕竟具有实用价值的CXL 3.0规范才刚发布,应用在具体的产品上还需要一定的时间。但市场上已经有一些产品,并且Intel和AMD这两大处理器巨头也已开始支持CXL。

CPU方面:AMD宣布在代号“贝加莫(Bergamo)”的处理器(也就是“热那亚(Genoa)”的下一代)支持CXL,Intel则在Alder Lake上支持。

加速器方面:Intel Agilex 系列FPGA(收购自Altera)已经支持CXL 1.1规范,未来将支持CXL 2.0规范。AMD收购Xilinx,NVIDIA收购Mellanox,作为CXL董事会成员,可预见的是也会支持CXL。

DRAM内存方面:三星已经发布了用于扩展主机DRAM内存的产品。

三星容量为512GB的CXL DRAM产品,控制器用ASIC芯片,基于PCIe 5.0,使用EDSFF(E3.S)接口,用在EDSFF机箱内

实际应用方面:Intel在SC21(超算21)上展示了Demo,而在FMS 2022上,弹性云(Elastics.cloud)宣称已经用于其云数据中心内。

CXL可以说是目前数据中心领域最顶级的标准制定组织之一,从董事会成员数量就可以看出,所以其他成员还有很多支持CXL的产品或接近方案,就不再一一列举了。

回到题目的问题,为什么Intel放弃傲腾?相信已经有了答案。

搜索“企业IT观察”,接收最热辣评论

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/ 返回网易首页 下载网易新闻客户端


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有