本文由半导体产业纵横(ID:ICVIEWS)综合
SK海力士计划从本月下旬开始向全球客户供货。
HBM(High Bandwidth Memory),直接翻译即是高带宽内存,是一款新型的CPU/GPU内存芯片。自2022年1月诞生以来,HBM3作为最新一代的高带宽内存,凭借其独特的2.5D/3D内存架构,迅速成为高性能计算领域的翘楚。沿袭了前代产品的优秀基因,HBM3同样采用了宽达1024位的数据路径,以6.4 Gb/s的速度飞驰,提供高达819 Gb/s的惊人带宽。
而今,SK海力士将这一标准再度提升,推出了HBM3E。这款新型内存不仅继承了HBM3的所有优点,更将数据速率提升至9.6 Gb/s,为高级AI工作负载提供了前所未有的性能支持。凭借其卓越的带宽、庞大的容量以及紧凑的占用空间,HBM3E正逐步成为现代AI计算中的首选内存解决方案。
SK海力士近日宣布,其最新研发的超高性能AI内存产品HBM3E已开始正式投入量产,并计划从本月下旬开始向全球客户供货。这一重要进展距离去年8月公司宣布开发该产品仅过去了7个月,显示了SK海力士在半导体技术领域的强大实力和高效执行力。
作为首家采用高性能 DRAM 芯片的 HBM3E 供应商,SK 海力士在推出 HBM3 后延续了其成功记录。该公司预计,HBM3E 的成功量产,加上其在提供 HBM3 方面的先锋作用,将巩固其作为 AI 内存领域领导者的地位。
在当今人工智能驱动的环境中,快速数据处理势在必行,半导体封装的组成起着至关重要的作用。全球主要科技公司对 AI 半导体性能的要求越来越高,SK 海力士将其 HBM3E 定位为满足这些不断升级的要求的最佳解决方案。
HBM3E 作为业界最重要的人工智能内存产品,在所有基本参数上都表现出色,包括速度和热量管理。每秒处理数据量高达 1.18TB,相当于一秒钟处理 230 多部全高清电影,树立了效率和性能的新标杆。
此外,考虑到人工智能内存固有的高速运行,有效的热量控制至关重要。SK Hynix 的 HBM3E 得益于先进的 MR-MUF(大规模回流成型底部填充)工艺的集成,其散热性能比其前代产品提高了 10%。
MR-MUF是SK海力士先进技术的一个关键方面,涉及堆叠半导体芯片并在它们之间注入液体保护材料,以增强散热并确保电路保护。与传统方法相比,这种创新方法显著提高了散热效率,有助于 HBM 生态系统内的稳定量产。
SK 海力士 HBM 业务负责人 Sungsoo Ryu 对 HBM3E 量产完成后公司全面的 AI 内存解决方案阵容充满信心。
SK Hynix 的 HBM 容量约为 120K,但容量可能会根据验证进度和客户订单而变化。
TrendForce表示,就目前主流HBM3产品的市场份额而言,SK海力士占据HBM3市场90%以上的份额,预计三星将紧随其后,随着AMD MI300在未来几个季度的逐步发布。
根据TrendForce的数据,三星的HBM总产能预计到年底将达到130K左右(包括TSV)。
HBM应用前景
随着AI大模型、智能驾驶等新技术的兴起,对高带宽内存的需求越来越大。
AI服务器需求将快速增长。AI服务器能够在短时间内处理大量数据,而GPU可以提升数据处理量和传输速率,因此对带宽的要求更高,HBM成为AI服务器的标配。
汽车也是HBM值得关注的应用领域。需要快速传输大量数据以及处理信息的摄像头数量不断增加,HBM具有较大的带宽优势。
AR和VR也是HBM未来的发力点。这些系统需要高分辨率显示器,并且需要更多的带宽来传输数据。同时,实时处理大量数据也需要HBM的强大带宽支持。
此外,智能手机、平板电脑、游戏机和可穿戴设备的需求也在增长,这些设备需要更先进的内存解决方案来满足不断增长的计算需求,因此HBM在这些领域也有望得到增长。此外,5G和物联网等新技术的出现也进一步推动了对HBM的需求。
随着AI和ML技术的蓬勃发展,对数据处理速度的需求日益迫切。SK海力士凭借其创新的HBM3E技术,以前所未有的速度引领着行业潮流,并有望彻底改变AI计算领域的格局。随着这项技术的广泛应用,人工智能的记忆体系将迎来重塑,并推动整个领域发生巨大变革。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/10527.html