根据市场调研,AI服务器的算力和功耗逐年增长。预计今年底,液冷散热方案的渗透率将达到10%。NVIDIA即将推出的Blackwell平台功耗急剧增加,这种服务器将主要用于高性能计算。
与Hopper平台相比,BlackwellB200单颗芯片的功耗高达1000W。它由一颗GraceCPU和两颗BlackwellGPU组成。最强大的GB200超级芯片更是恐怖地达到2700W的功耗。
回顾历史,Hopper家族的H100、H200GPU功耗都是700W,而H20只需要400W。Grace+Hopper超级芯片则需要1000W。每台NVgleHGX服务器预装8颗GPU,NVL36服务器每台安装36颗GPU,NVL72服务器每台安装72颗GPU。整体上看,这些机器的整体功耗将达到70千瓦或140千瓦。
据预计,到2025年时,GB200芯片的出货量将达到6万台,并且总出货量有望突破210-220万颗。
在液冷方案中,主要分为水冷板(COLDPlate)、冷却分配系统(CoolantDistributionUnit,CDU)、分歧管(Manifold)、快接头(QuickDisconnect,QD)以及风扇背门(RearDoorHeatExchanger,RDHx)等五大部件组成。其中,CDU是关键部分,负责在整个系统内调节冷夜流量以确保温度可控。维谛技术(Vertiv)是主供CDU的产品供应商,其他公司如奇鋐、双鸿、台达电、CoolIT等也在测试验证中。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/988300.html