下一代加速器存储核心 HBM4加速入市

科技有点奇谱2024-05-17 18:50:05  59

一面是NV这样的用户对带宽和容量的双重渴求,一面是三星、SK海力士、美光的组团竞争,下一代高性能内存的竞争日益白热化。

HBM内存在带宽与延迟方面的优势,包括AI训练在内的无数场景渴求,但是其高昂的成本与功耗,令Intel、AMD和NVIDIA都望而却步,至今没有占领最能出的起钱的GPU/加速器市场,GDDR产品仍大行其道。

随着美光联手台积电杀入这一被三星和SK海力士所垄断的市场,竞争开始呈现白热化的局面。

先说用户端,包括B100和GeForce 5000在内Blackwell产品放弃采用HBM3内存,但是在下一代产品中,仍考虑引入HBM4内存,毕竟随着AI算力需求的提升,显存的瓶颈问题更加明显,而转向HBM的收益就更大,能够覆盖成本增加。

预计,NV下一代架构的代号为“Rubin”,它代号源自美国天文学家Vera Rubin。基于“Rubin”架构的首款AI GPU——R100有望于2025年第四季度进入量产阶段,并成为首批采用HBM4内存的芯片之一。

GPU升级至HBM4的动力非常足,核心原因在于HBM4性能提升幅度巨大,如接口位宽从1024位直接跨越到2048位。巨大的位宽,对芯片封装方式提出了更高要求,即内存堆叠的模式有较大变化,需由多颗芯片共同完成,也就对封装形式及基低芯片提出了挑战。

近期,台积电明确了HBM4基底芯片的规格,其首批产品将采用N12FFC+和N5两个制造节点,以实现将HBM4内存与下一代AI和HPC处理器集成在一起的目标。

N12FFC+制造工艺(12nm FinFET Compact Plus,正式属于12nm级技术,源于台积电成熟的16nm FinFET制造节点)制造的基础芯片将用于在硅片上安装HBM4内存堆栈SoC的中介层,使三星、SK海力士和美光等内存芯片厂商能够构建堆叠HBM内存芯片实现12-Hi(48 GB)和16-Hi(64GB)容量规模,且每个堆栈带宽均超过2TB/s。

作为一种更先进的替代方案,内存制造商还可以选择采用台积电的N5工艺来生产HBM4的基础芯片。这一产品可将更多逻辑芯片封装在一起,从而降低能量消耗并提供更高性能。N5制程最大的优势是实现了更小的互连间距,并能直接与N5制程的其他芯片直接结合在一起,从而使HBM4能够在逻辑芯片顶部进行3D堆叠,这样封装对性能的贡献更为巨大。

转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/554469.html
0
最新回复(0)