这两天,OpenAI的新模型GPT-4o刷屏了,对于这个名字里的“o”,官方解释是“o”代表“omni”,该词意为“全能”,源自拉丁语“omnis”。
说GPT-4o是“全能”大模型,似乎并不为过,因为它不仅能够实时处理文本、音频和图像,并且采用了全新的语音交互模式,人机对话的响应速度得到大幅提升,它甚至还会看人脸色。
GPT-4o语音对话测试,它甚至会开玩笑
经过测试,和GPT-4o交流,几乎与和真人对话没有区别,有用户甚至评价其为“迄今为止最像人的AI”。让用户更为惊喜的是,GPT-4o对所有用户免费,不过鉴于滥用风险,GPT-4o的应用程序接口中尚未为所有客户提供语音功能。
GPT-4o的横空出世,无疑再次引爆AI热潮,作为当下AI芯片搭载标配的高带宽存储芯片HBM,也备受市场追捧,可谓“一芯难求”。有分析师认为,HBM供不应求将持续一年。
号称OpenAI有史以来最好模型
GPT-4o有多“全能”?
北京时间5月14日凌晨,OpenAI在线上举办了春季发布会,这场不到30分钟的活动主要分为两大部分:推出新旗舰模型“GPT-4o”,以及在ChatGPT中免费提供更多功能。
“GPT-4o是OpenAI有史以来最好的模型,它既聪明又快速,是自然的多模态。”OpenAI CEO山姆·奥特曼对GPT-4o如此评价道。
作为GPT-4模型的更新版,GPT-4o到底强在哪儿?
根据OpenAI的发布会和官方公布的信息,GPT-4o不仅具备识别手写字体的能力,还在数学方程式的解答上表现出色,并且更引人注目的是,它不仅能够理解人的情感,还能察言观色,甚至在合适的时机讲出令人捧腹的笑话。
GPT-4o根据文本要求输出图片
在各项传统基准测试中,GPT-4o相较于GPT-4 Turbo(OpenAI去年11月推出的高性能模型)展现出了全面的优势,其他模型更是难以望其项背。
详细而言,GPT-4o在处理英语文本和编程代码上的表现与GPT-4 Turbo差不多,但在非英语文本的处理上,其性能有了显著的提升。
推理能力方面,GPT-4o在MMLU、GPQA、MATH、HumanEval等测试基准上均超越GPT-4 Turbo、Claude 3 Opusn、Gemini Pro 1.5等前沿模型,取得最高分。
另外,GPT-4o在视频和音频处理方面的卓越表现,使其在众多模型中脱颖而出。由于GPT-4o模型基于来自互联网的大量数据进行训练,因此其更擅长处理文本和音频,并且支持50种语言。根据OpenAI披露,GPT-4o最快能够在232毫秒内响应语音输入,平均响应时长约320毫秒,流畅程度几乎达到了和人类对话的水平。
GPT-4o的“人性”展现,标志着大模型技术正迈向多模态发展的新纪元。在这个新阶段,模型不再局限于长文本的单一语言对话,而是将视觉、语音乃至情感融入其核心参数中,为用户提供更加全面、深入、自然的交互体验。多模态的快速发展,也对AI算力提出了更高要求,满足训练需求的HBM芯片,成为了大厂争抢的香饽饽。
国内外争抢多模态赛道布局
HBM供不应求
GPT-4o的推出无疑为AI技术的发展指明了新的方向,并推动了相关产业链的快速发展。不仅是国外企业,近两年,国内多家科技企业也紧跟多模态的发展潮流,不断缩小与国外的差距,在AI领域取得了显著成绩。
据第三方统计,2023年国内多模态AI概念股研发支出合计高达327.53亿元,占营收11.2%。阿里云、腾讯等公司推出的多模态模型如通义千问2.5和混元文生图等,都展现出强大能力。
在这一背景下,HBM芯片作为AI模型的关键驱动力,其重要性愈发凸显。
对于GPT-4o这类AI大模型来说,HBM芯片在其模型训练中发挥着至关重要的作用。目前没有其它内存芯片可以取代HBM,业内专家更是指出“谁掌控了HBM,就掌握了AI训练”。
随着AI技术的不断发展和应用场景的拓展,市场对HBM芯片的需求将持续增长。不少分析师警告称,在人工智能的爆炸性需求影响下,HBM的供应短缺情况可能将持续今年一整年。
目前,全球最大的存储芯片供应商SK海力士和美光都已经表示,2024年的HBM芯片已经售罄,而2025年的库存也几乎售罄。
市场分析师预测,由于这些芯片的制造更为复杂且提高产量一直困难,因此在未来一段时间内将出现短缺现象。今年3月,市场情报公司TrendForce曾表示,与个人电脑和服务器中常见的DDR5内存芯片相比,HBM的生产周期要长1.5至2个月。
今年4月,三星在其第一季度财报电话会议上表示,其2024年的HBM供应“比去年增长了三倍以上”。
为了满足日益增长的市场需求,SK海力士计划在美国和韩国等地投资扩大产能。三星也表示将继续扩大HBM芯片的供应,以满足客户的需求。
随着技术的不断进步和应用场景的不断拓展,HBM芯片将在未来AI技术的发展中发挥更加重要的作用。目前,英伟达、AMD、英特尔等全球GPU芯片巨头目前都在排队抢货,甚至HBM溢价五倍也愿意买单。
逆势涨价的HBM,凭什么?
在存储市场低迷的大背景下,HBM究竟凭什么能逆势涨价还“遭到”疯抢?
按照JEDEC的分类,HBM属于DRAM子类下图形DDR内存的一种。HBM与其他DRAM最大的差别就是拥有超高的带宽。
HBM结构示意图
HBM主要是通过硅通孔(TSV)工艺进行芯片堆叠,以增加吞吐量并克服单一封装内带宽的限制,将数个DRAM裸片像楼层一样垂直堆叠。这种垂直堆叠的方式大大提高了存储器的容量和带宽,同时降低了延迟和功耗。
随着AI的持续发展,算力的增长速度要远大于存储的增长速度,这导致冯·诺依曼结构中 突出的“存储墙”问题越发严重:
一是存储带宽问题;二是传输能效问题。
为了解决“存储墙问题”,存算一体的概念再一次被提出。HBM作为存算一体的代表模式,以更低的功耗、更小的外形等优势,已成为AI芯片(尤其GPU芯片)的主流内存解决方案。在AI持续火爆趋势下,HBM需求也迅速被拉动。
目前,训练型AI服务器对于HBM市场的拉动体现在:
①AI服务器渗透率的提升;
②单个AI服务器搭载GPU数量的增加;
③每个GPU搭载的HBM Stack数量增加;
④单个HBM堆叠的DRAM die层数(Hi)增加,以及DRAM die容量增加;
⑤HBM代际进步带来单GB价值量的提升。
以上五个方面具体分析如下:
1) AI训练服务器渗透率提升:根据Trendforce,2022年全球服务器出货大约1430万台,其中训练侧AI服务器占比仅为1%;由于四大CSP陆续下调采购量,Dell及HPE等OEM厂商在2-4月期间下调全年出货量至同比分别减少15%和12%,Trendforce预估2023年全球服务器整机出货量将同比减少2.85%至1383.5万台。同时,考虑到云服务厂商积极投入生成式AI,AI服务器渗透率预计将快速提升;
2) GPU基板搭载HBM数量提升:搭载HBM1的GPU基板上仅采用4个HBM1芯片,而英伟达AI服务器DGX A100和H100的基板搭载了8个GPU,每个GPU搭配6个HBM2e;
3) 单个DRAM die密度增加、HBM堆叠层数和容量提升:根据SK海力士官网信息,从HBM1进步到HBM3,单个DRAM Die密度从2Gb提升至16Gb,堆叠高度从4Hi提升至最高12Hi,单个HBM容量从最高1GB提升至24GB;
4) HBM性能提升:HBM1提升至HBM3,最高速度从1Gbps提高到高于6Gbps,带宽从128GB/s提升至最高4.8TB/s。例如,SK海力士的HBM3将DRAM芯片高度减少至大约30微米,相当于A4纸厚度的1/3,使用TSV技术(在DRAM芯片上打上数千个细微孔并通过垂直贯通的电极连接上下芯片)垂直连接12个芯片,相较于HBM2e,HBM3的速度提高了大约78%,容量提升了1.5倍,并且大大降低了工作温度;
5) 价值量较传统DRAM提升:传统DDR4每GB价格大约数美元,HBM价格大约为其数倍,HBM3、HBM3E相较前几代产品价值量也大大提升。
从技术迭代上看,自2014年全球首款硅通孔HBM产品问世以来,HBM技术加速演进已经从HBM1、HBM2、HBM2E,发展至目前被业界认为成为市场主流的HBM3,甚至HBM3E。
历代HBM性能演进
从HBM发展趋势我们可以看出,芯片密度越来越大,堆叠层数越来越多, 对应容量、带宽、数据传输速率均呈翻倍发展态势。
HBM凭借突破性的内存容量与带宽优势,为GPU带来前所未有的并行数据处理速度,成功破解“内存墙”难题,算力得到空前释放。
因此在AI时代浪潮中,HBM迅速崭露头角,受到各大厂商热烈追捧,市场需求激增。随着AI服务器需求飙升,尤其是GPU对数据处理和传输速率的显著提升,HBM已成为AI服务器的标配,如AMD系列GPU的广泛应用便是明证。
英伟达、AMD搭载HBM芯片的GPU一览
据市场研究机构预测,HBM市场未来将以惊人的速度增长。在存储芯片市场整体低迷的背景下,HBM犹如一股清流,成为存储巨头业绩的重要支撑点。英伟达、AMD等AI芯片制造商的需求激增,使得HBM价格逆势上扬,供不应求成为常态。
2024年4月,SK海力士与台积电发布公告,宣布两家公司就整合HBM和逻辑层先进封装技术签订谅解备忘录。双方将合作开发第六代HBM产品(HBM4),预计在2026年投产。
三星在其发布的技术路线图中显示,目前已开始向客户提供HBM3E 12H样品,预计于今年下半年开始大规模量产;同时HBM4研发已在进行中,预计2025年推出。
目前,HBM市场主要被SK海力士、三星和美光三大巨头占据,国内企业也努力弥补这一产业链短板,正处于0到1的突破期。目前国内涉及HBM产业链的公司主要包括雅克科技、中微公司、和拓荆科技等公司。
尽管短期内国内产业链在HBM芯片生产中的参与度尚显不足,但鉴于国产替代的宏观背景,HBM的应用前景和趋势已日渐清晰。随着其高速的发展,预计会涌现出一批优秀的产业链力量,这些力量将有效弥补国产HBM产业链中的不足,推动整个产业链的完善与发展。