科技云报道原创。
春节期间,OpenAI的最新技术成果——文生视频模型Sora惊艳登场,令海内外的AI从业者、投资人彻夜难眠。
Sora大模型可以让用户仅通过输入一个句子,就可以生成与好莱坞画面相媲美的视频,且长度最多可达1分钟,让人深感震撼。
对于这颗“深水炸弹”,众说纷纭。
Open AI自称Sora是“世界模拟器”。有网友惊呼“现实不存在了”。马斯克直言:人类认赌服输。美国科技博主马克斯·布朗利表示,Sora或将拉响影视行业失业警报。
毋庸置疑,Sora极具破坏性创新的潜力,必将重塑现有的产业格局如短视频、广告、游戏、影视行业等。
从二级市场的表现来看,工具类公司Adobe,在Sora公布后的次日股价暴跌超7%;美国图片工具供应商Shutterstock跌超5%;几周前发布了“文生视频”工具Lumiere的谷歌母公司股价下跌1.58%。
三家公司一天内就合计蒸发近480亿美元(约合人民币3500亿元)的市值。
随着Sora的震撼面世,失业、裁员、洗牌等词汇的热点居高不下,但也有行业迎来了“泼天的富贵”。
OpenAI创始人兼CEO Sam Altman发帖表示,OpenAI认为“世界需要更多的AI基础设施,包括晶圆制造能力、能源、数据中心等,而人们目前计划建设得不够。”
他补充说,“建设大规模的AI基础设施和一个具有韧性的供应链对经济竞争力至关重要”,而OpenAI将努力提供帮助。
对此,英伟达创始人黄仁勋回应道:看好全球AI数据中心在未来4-5年里将翻番,增长到2 万亿美元的规模。在此期间,更高效、更低成本的芯片会持续出现,大规模投资变得不那么必要。
正所谓有人欢喜有人愁,在Sora这类生成式AI技术的推动下,AI基础设施迎来了“高光时刻”。
Sora推动AI算力需求猛增
根据OpenAI发表的论文显示,Sora大模型延续了此前GPT模型“源数据-Transformer-Diffusion-涌现”的技术路径。
这意味着其发展成熟同样需要海量数据+大规模参数+大算力作为基座,且由于视频训练所需数据量远大于文本训练的数据量,预计Sora大模型将进一步拉大算力缺口。
根据DiT模型创立者谢赛宁博士粗略测算,Sora模型的参数规模大约为30亿。
根据对可训练数据量的研究成果,海外大型视频网站每分钟大约上传500小时视频内容。由此测算训练Sora模型需要约7.09万张H100一个月的训练量。
在推理侧,根据相关研究测算生成一张图的算力消耗约为256个词的消耗。由此推算生成一个1分钟时长短视频的算力消耗,约是生成一次文字对话的千倍以上。
正如ChatGPT带来的AI算力需求增长,Sora的横空出世,进一步加剧了AI算力的紧缺。
而这种紧缺,造就了生成式AI底层基础设施——算力芯片的“绝对霸主”英伟达,堪称近一年多来最耀眼的上市公司。
2023年,英伟达累计暴涨239%。2024年,涨势仍在持续,2月16日美股收盘,英伟达报726.13美元,今年累计上涨近50%,市值为1.79万亿美元,超越谷歌和亚马逊,位列全球第三。
“从公司强劲的增长中可知,各行各业都在经历从通用计算到加速计算和生成式AI的平台转型。”英伟达创始人黄仁勋表示。
事实上,不仅是英伟达,其最大的两个竞争对手英特尔和AMD也在AI芯片领域加速追赶。
更为重要的是,英伟达的大客户们——科技巨头之间的一场新竞赛正在升温,他们正在构建自己的AI芯片,以摆脱对英伟达芯片的依赖。
2023年11月,微软正式推出了其自研的两款人工智能芯片:Maia 100和Cobalt 100。
今年2月,全球最大的社交媒体公司Meta对外证实,计划今年在其数据中心部署最新的自研定制芯片,并将与其他GPU芯片协调工作,助力其AI大模型发展。
而在此之前,有数据显示,2023年,Meta和微软两家公司以15万块英伟达H100 GPU的购买量并列第一。
Meta首席执行官马克·扎克伯格表示,该公司计划在今年底前拥有大约35万颗英伟达H100处理器。再加上其他供应商,Meta将累计拥有60万颗H100的等效计算能力。
但即便如此,AI算力依然不够。
风头正劲的OpenAI也在探索制造自己的AI芯片。
有消息称,在Sora发布前夕,OpenAI创始人兼CEO Sam Altman正在从中东地区筹集总计高达7万亿美元的资金,以支持公司的一项半导体计划,并与英伟达展开竞争,计划重塑全球半导体行业格局。
7万亿美元是什么概念?占全球GDP的10%,相当于2.5个微软、3.75个谷歌、4个英伟达、7个Meta或者11.5个特斯拉,也就是全球半导体的全部江山。
这笔钱能将AMD、台积电、英伟达、三星、英特尔、高通等公司通通打包带走。
Sora发布后,软银集团创始人孙正义也正在寻求高达1000亿美元资金,打造一家能与英伟达竞争的芯片公司,专注于生产对AI至关重要的半导体。
如果孙正义的计划得以实现,这将成为继ChatGPT问世以来,AI领域最大的一笔投资。
正如ChatGPT引爆国内文本生成式大模型热潮一样,此次Sora大模型展示出相较以往同类产品更强的生成式能力,进一步打开了AI应用想象空间,预计国内大模型厂商也将快速跟进,加大对文成视频大模型的投入力度,进而推动AI算力需求持续高涨。
算力产业迎来“泼天富贵”
从全球视角来看,在Sora的催化下,算力产业链从上游硬件、中游服务器/交换机、下游应用侧闭环现愈发清晰,从云侧到端侧、从硬件到软件都将呈现生机勃勃之景。
首先,ChatGPT、Sora等AI大模型的广泛应用,将催生高性能计算(HPC)和边缘计算的需求增长,与之相关的GPU、FPGA、ASIC等芯片将迎来巨大需求。
同时,AI大模型的应用需要强大的计算资源来支持,这也会推动数据中心的建设和升级。
其次,Sora等AI大模型将持续推动IT基础设施技术创新。
例如,AI大模型对算力和能效有着高需求、高要求,这将推动半导体公司不断研发更先进的芯片架构和制造工艺,也将推动云和IT服务商不断探索更高效的计算资源调度能力,以提高对算力的利用率,降低AI大模型的训练成本。
对于数据中心服务商而言,多模态模型的爆发,对数据中心网络提出了更大的要求。
视频数据的生成、调用等,对集群通信延迟要求更高、带宽需求暴增,而带宽的提升也意味着网络建设成本的提高,需要进一步通过技术降本增效。
同时,面对更多的智能算力需求,数据中心高密度趋势明显,也需要通过新技术降低IT设备空间占有率。
更具想象力的是,运用Sora大模型的生成能力,还可以推动产业的技术创新。比如,生成模拟的半导体电路图像,以便在设计阶段进行分析和优化,从而对半导体行业的设计和制造过程产生影响。
可以预见,随着Sora等AI大模型的普及,AI步入千家万户,那些能够提供高性能、高性价比AI算力的公司将获得更大的市场份额,以“技术”为先的核心竞争力变得愈发重要。
结语
整体来看,大模型产品从文字、图片上升到视频,AI训练量的不断提升,对算力的需求也呈现指数级增长态势,AI芯片、AI服务器、数据中心等相关行业的需求将一路狂飙,“卖铲子”的公司依旧是第一受益人。
但想要接住这“泼天的富贵”,技术仍是第一生产力,各家基础设施厂商势必要在软硬件方面进行全方位升级。
【关于科技云报道】
专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/243047.html