人工智能领域近年来正在迎来一场由生成式人工智能大模型引领的爆发式发展。2022年11月30日,OpenAI公司推出一款人工智能对话聊天机器人ChatGPT,其出色的自然语言生成能力引起了全世界范围的广泛关注,2个月突破1亿用户,国内外随即掀起了一场大模型浪潮,Gemini、文心一言、Copilot、LLaMA、SAM、SORA等各种大模型如雨后春笋般涌现,2022年也被誉为大模型元年。
智算缺口犹存,三大运营商布局智算中心
近两年来,AI大模型层出不穷,对智算的需求也在飞速增长。市场咨询机构IDC预计,2026年,我国智能算力规模将进入每秒十万亿亿次浮点(ZFLOPS)级别,达到1271.4EFLOPS。
其中提及,2023年至2024年智算建设缺口为23EFlops。2025年全国算力目标超过300EFlops,智算比例达到35%,智算算力目标为105EFlops。
针对于此,近年来三大运营商也在积极布局智算中心,并提出相关战略部署。
中国联通在提供专业化智算基础设施服务方面,布局了“1+N+X”智算能力体系,包括了1个超大规模的单体智算中心、N个智算训推一体枢纽和属地化的X个智算推理节点。
中国移动强化“4+N+31+X”数据中心布局,围绕热点、中心、边缘实现算力资源覆盖,建设边缘节点超1000个。“4+N+31+X”数据中心体系,其中“4”指京津冀、长三角、粤港澳大湾区、成渝等4个热点业务区域,“N”指国家枢纽节点10个数据中心集群内规划的超大型数据中心;“31”指各省规划超大型数据中心;“X”指各地市级数据中心及汇聚机房。
中国电信则提出了“云网融合”的理念,形成了“2+4+31+X+O”的算力布局。其具体特指在内蒙古和贵州两个全国性云基地打造融合资源池,在京津冀等4个大区建成大规模公有云;在31个省省会级和重点城市建设属地化专属云;在X节点打造差异化边缘云;布局“一带一路”沿线国家,将算力体系延展至海外。
ChatGPT激起AI浪潮,大算力芯片迎来产业机遇
算力硬件层是构成AIGC产业的核心底座,主要包括AI芯片、AI服务器和数据中心。AI芯片是算力硬件层的基石。AI芯片主要分为CPU、GPU、FPGA和ASIC四类,CPU是AI计算的基础,GPU、FPGA、ASIC作为加速芯片协助CPU进行大规模计算。目前AI芯片主要被国际厂商垄断,根据Counterpoint、IDC数据,Intel和AMD共计占2022年全球数据中心CPU市场收入的92.45%,Nvidia占2021年中国加速卡市场份额的80%以上。
AI服务器是AI芯片的系统集成。AI服务器采用CPU+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优势。与国外AI芯片厂商的垄断局面不同,中国AI服务器水平位于世界前列。
据数据,在2021H1全球AI服务器市场竞争格局中,浪潮信息以20.2%的份额排名第一,联想和华为分别以6.1%和4.8%的份额位列第四、五名。数据中心的计算服务是承接AI算力需求的直接形式。AIGC的模型训练是通常是通过云计算服务完成的,其本质是AIGC模型厂商借助IDC的算力资源,在云端实现模型的训练。目前国内的数据中心厂商主要包括三大运营商、华为、联想、中科曙光等,提供云计算的厂商主要有阿里、腾讯等互联网企业。
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/444200.html