linux cpu占用率如何看
250
2022-11-10
为多Die SoC提供低成本低功耗的die-to-die接口
数据中心内部和数据中心之间的长距离数据移动
随着数据速率的提高,接口功耗(通常以“皮焦耳/位”为测量单位)和面积变得越来越重要。物理接口 (PHY) IP 具有明显的优势,可最大限度地减少能耗,同时在所需距离内可靠地提供数据,从而可最大限度地降低基础架构的功耗和散热成本。节省空间的硅 PHY 解决方案可最大限度地降低 SoC 成本,从而为 SoC 供应商提高盈利能力。
图 2:超大规模数据中心基础架构逐渐转向采用 400+GbE
服务器内部的数据传输
图 3:PCI Express 每个通道的带宽升级过程。来源:PCWorld
近来,由计算系统生成和处理的数据量(尤其是非结构化数据)持续增长,已促使了新架构的产生,新架构通常采用加速器来加快数据处理。将数据从一个处理器域复制到另一个处理器域是一个资源密集型过程,这会显著增加数据处理的延迟。缓存相干解决方案让处理器和加速器共享内存,而无需将数据从一个内存空间复制到另一个内存空间,从而节省了复制数据所需的内存资源和时间。
与其他外设互连相比,用于高性能计算工作负载的 CXL 可显著降低延迟。由于 cxl.cache 和 cxl.mem 事务的延迟仅为 50-80 纳秒,因而在 PCIe 延迟中,CXL 延迟仅占一小部分。此外,CXL 通过使用资源共享提高性能并降低复杂性,这也降低了总体系统成本。
SoC 内的 USR/XSR 数据移动
许多现代服务器 SoC 利用在单个 package 内放置多个 Die,在符合设计和制造约束的范围内提供所需的性能。因此,需要高速 die-to-die (D2D) 通信以在芯片内的 Die 之间传递大型数据集。超短距离/极短距离 (USR/XSR) SerDes 可实现这一传递,当前设计使用 112Gbps SerDes,并且在未来几年内可能会达到更高的速度。
图 4:举例展示 Die 间互连用例
总结
云数据的快速增长推动了对于更快、更高效接口的需求,以将云基础架构内的数据从网络和系统向下传输到芯片级数据通信中。新推出和正在开发的接口技术(包括 400Gbps 和更快的以太网、PCIe 6.0 和 CXL 外设互连技术,以及用于 Die 间通信的新型高速 SerDes)可实现必要的基础架构改善,以支持不断提高的云数据需求。
新思科技的 DesignWare® 高速 SerDes 和以太网 IP 支持实现新一代数据中心网络解决方案。DesignWare PCIe IP 是一种稳定成熟的技术,在 90% 的领先的半导体公司得到应用,为实现 DesignWare CXL IP 奠定了基础。DesignWare 112G USR/XSR SerDes IP 为多 Die SoC 提供低成本、节能的 die-to-die 接口。新思科技提供经过硅验证且品类齐全的 DesignWare 接口 IP 产品组合,同时提供开发高速、低功耗、高度可靠的 SoC 所需的设计和验证工具,以支持当今和未来云基础架构不断提高的数据移动需求。
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~