本文由半导体产业纵横(ID:ICVIEWS)编译自technologyreview
未来的芯片是什么样子?谁将制造它们以及它们将解锁哪些新技术?
由于人工智能的蓬勃发展,芯片世界正处于巨大潮流转变的风口浪尖。人们对芯片的需求不断增加,这些芯片可以更快地训练人工智能模型,并从智能手机和卫星等设备上对它们进行操作,使我们能够在不泄露私人数据的情况下使用这些模型。各国政府、科技巨头和初创企业都竞相在不断增长的半导体市场中分得一杯羹。
以下是未来一年需要关注的四个趋势,它们将定义未来的芯片是什么样子、谁将制造它们以及它们将解锁哪些新技术。
CHIPS 在世界各地开展活动
全球最大的两家芯片制造商台积电和英特尔正在竞相在沙漠中建设园区,他们希望这些园区能够成为美国芯片制造实力的所在地。这些努力的一个共同点是资金:3 月份,乔·拜登总统宣布为英特尔在全国范围内的扩张提供 85 亿美元的直接联邦资金和 110 亿美元的贷款。几周后,台积电又宣布获得 66 亿美元的投资。
这些奖项只是美国通过 2022 年签署的 2800 亿美元芯片和科学法案涌入芯片行业的补贴的一部分。这笔资金意味着任何涉足半导体生态系统的公司都在分析如何重组其供应链以受益。虽然大部分资金旨在促进美国芯片制造,但其他参与者仍有申请的空间。
美国并不是唯一一个试图将部分芯片制造供应链本土化的国家。日本自己花费了 130 亿美元,相当于《芯片法案》,欧洲将花费超过 470 亿美元,今年早些时候,印度宣布斥资 150 亿美元建设本地芯片工厂。塔夫茨大学教授、 《芯片战争:争夺世界最关键技术之战》一书的作者 Chris Miller 表示,这一趋势的根源可以追溯到 2014 年。从那时起,中国开始向其芯片制造商提供巨额补贴。
“这造成了一种动态,其他政府得出结论,他们别无选择,只能提供激励措施或看到企业将制造业转移到中国,”他说。这种威胁,加上人工智能的激增,导致西方政府为替代方案提供资金。
Miller表示,这笔资金不太可能催生全新的芯片竞争对手,也不太可能通过重组成为最大的芯片厂商。相反,它将主要激励像台积电这样的主导企业在多个国家扎根。但光靠资金还不足以迅速做到这一点——台积电在亚利桑那州建厂的努力陷入了错过最后期限和劳资纠纷的泥潭,而英特尔也同样未能满足其承诺的最后期限。目前尚不清楚,无论何时这些工厂投产,其设备和劳动力是否能够达到这些公司在国外的先进芯片制造水平。
Miller表示:“供应链只会在数年甚至数十年内缓慢转变。但情况正在发生变化。”
更多边缘人工智能
目前,我们与 ChatGPT 等 AI 模型的大部分交互都是通过云完成的。依赖云有一些缺点:一方面,它需要互联网访问,而且还意味着您的一些数据会与模型制作者共享。
这就是为什么人们对人工智能边缘计算产生了很大的兴趣和投资,其中人工智能模型的过程直接发生在您的设备上,例如笔记本电脑或智能手机。随着行业越来越致力于人工智能模型,帮助我们了解很多的未来,而这一切需要更快的“边缘”芯片,使得可以在不共享私人数据的情况下运行模型。这些芯片面临着与数据中心芯片不同的限制:它们通常必须更小、更便宜、更节能。
美国国防部正在资助大量针对快速、私有边缘计算的研究。今年 3 月,其研究部门国防高级研究计划局 (DARPA) 宣布与芯片制造商 EnCharge AI 合作,打造一款用于人工智能推理的超强大边缘计算芯片。EnCharge AI 正在致力于制造一款能够增强隐私性但运行功耗极低的芯片。这将使其适用于卫星和离网监视设备等军事应用。该公司预计将于 2025 年发货这些芯片。
人工智能模型将始终依赖云来实现某些应用程序,但新的投资和对改进边缘计算的兴趣可以为我们的日常设备带来更快的芯片,从而带来更多的人工智能。如果边缘芯片变得足够小且足够便宜,我们可能会在家庭和工作场所看到更多人工智能驱动的“智能设备”。如今,人工智能模型主要局限于数据中心。
EnCharge AI 联合创始人 Naveen Verma 表示:“我们在数据中心遇到的许多挑战都将得到克服。我预计人们会重点关注边缘领域。我认为这对于大规模实现人工智能至关重要。”
大型科技公司加入芯片制造领域
公司正在支付高昂的计算成本来为其业务创建和训练人工智能模型。例如,员工可以用来扫描和汇总文档的模型,以及虚拟代理等面向外部的技术。这意味着对云计算来训练这些模型的需求正在急剧增加。
提供大部分计算能力的公司是亚马逊、微软和谷歌。多年来,这些科技巨头一直梦想通过为自己的数据中心制造芯片来提高利润率,而不是从像英伟达这样的公司购买芯片。亚马逊于 2015 年开始努力,收购了初创公司 Annapurna Labs。谷歌在 2018 年推出了自己的芯片 TPU。微软于 11 月推出了首款人工智能芯片,Meta 于 4 月推出了新版本的自家人工智能训练芯片。
这种趋势可能会让英伟达失去优势。但在大型科技公司眼中,英伟达不仅扮演着竞争对手的角色:无论云巨头自己的内部努力如何,他们的数据中心仍然需要其芯片。部分原因是他们自己的芯片制造工作无法满足他们的所有需求,但也是因为他们的客户希望能够使用顶级的 Nvidia 芯片。
“这实际上是为了给客户提供选择,”微软 Azure 硬件工作负责人 Rani Borkar 说。她表示,她无法想象微软为其云服务提供所有芯片的未来:“我们将继续保持强有力的合作伙伴关系,并部署来自与我们合作的所有芯片合作伙伴的芯片。”
当云计算巨头试图从芯片制造商手中夺取一些市场份额时,英伟达也在尝试相反的做法。去年,该公司推出了自己的云服务,这样客户就可以绕过亚马逊、谷歌或微软。随着市场份额争夺战的展开,未来的一年将关乎客户是否将大型科技公司的芯片视为类似于英伟达最先进的芯片。
英伟达与初创公司的较量
尽管英伟达占据主导地位,但仍有一波投资流向初创公司,这些初创公司旨在未来芯片市场的某些领域超越英伟达。这些初创公司都承诺提供更快的人工智能训练,但对于哪种计算技术能够实现这一目标,从量子到光子学再到可逆计算,他们有不同的想法。
许多公司,例如 SambaNova、Cerebras 和 Graphcore,都在尝试改变芯片的底层架构。想象一下人工智能加速器芯片需要不断地在不同区域之间来回移动数据:一条信息存储在内存区域中,但必须移动到处理区域,在那里进行计算,然后存储回内存区进行保管。这一切都需要时间和精力。
提高这一过程的效率将为客户提供更快、更便宜的人工智能培训,但前提是芯片制造商拥有足够好的软件来允许人工智能培训公司无缝过渡到新芯片。如果软件转型过于笨拙,OpenAI、Anthropic 和 Mistral 等模型制造商可能会坚持使用大型芯片制造商。这意味着采用这种方法的公司(如 SambaNova)不仅将大量时间花在芯片设计上但在软件设计上也是如此。
芯片初创公司Eva创始人Onen 提议进行更深层次的改变。他没有使用传统晶体管,几十年来,传统晶体管通过变得越来越小而提供了更高的效率,而是使用了一种称为质子门控晶体管的新组件,他说 Eva 是专门为人工智能训练的需求而设计的。它允许设备在同一位置存储和处理数据,从而节省时间和计算能源。使用此类组件进行人工智能推理的想法可以追溯到 20 世纪 60 年代,但研究人员永远无法弄清楚如何将其用于人工智能训练,部分原因是材料障碍——它需要一种材料,除其他品质外,能够精确地控制室温下的电导率。
有一天,在实验室,“通过优化这些数字,并且非常幸运,我们得到了我们想要的材料。” Onen说。经过几个月的努力确认数据正确后,他创立了 Eva,该成果发表在《科学》杂志上。
但在这个领域,许多创始人都承诺要推翻领先芯片制造商的主导地位,但都失败了,Onen坦言,他还需要数年时间才能知道设计是否按预期工作以及制造商是否会同意生产它。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。