亚马逊(首席执行官安迪·贾西(Andy Jassy)在他的第二份年度致股东信中为投资者提供了大量有价值的花絮。其中之一是关于热门的半导体行业,这是所有计算技术的基石。实际上,亚马逊多年来一直在投资自己的内部半导体设计,并且越来越关注高性能机器学习处理器,这些处理器为ChatGPT等大型语言模型(LLM)服务提供动力。
Nvidia的股票最近一直在蓬勃发展,这是基于对其LLM长期收入增长前景的乐观情绪,因为其图形处理单元(GPU)在该部门处于领先地位。但亚马逊的芯片投资是否会给Nvidia带来麻烦?
Amazon Web Services (AWS)是快速发展的云行业的先驱。今天,AWS为亚马逊帝国买单,并帮助资助大量其他业务投资。但是亚马逊是如何决定投资半导体设计这样的新企业的呢?正如Jassy在2022年年度股东信中解释的那样,有四个主要指标:
如果我们成功了,它能做大并获得合理的投资回报吗?
今天机会是否得到妥善利用?
我们有差异化的方法吗?
而且,我们在那个领域有能力吗?如果没有,我们能否快速获得它?
If we were successful, could it be big and have a reasonable return on invested capital?
Is the opportunity being well-served today?
Do we have a differentiated approach?
And, do we have competence in that area? And if not, can we acquire it quickly?
显然,当AWS考虑设计数据中心芯片(为云提供动力的计算硬件)时,这四个问题的答案都是“是”。为了启动其芯片梦,它于2015年以3.5亿美元的价格悄悄收购了以色列芯片设计初创公司Annapurna Labs。
Annapurna Labs为AWS设计了许多芯片,包括其Graviton处理器——基于ARM的芯片替代英特尔和AMD提供的CPU。但是,Nvidia的GPU等计算加速器如何为ChatGPT等新的人工智能服务提供动力?
这就是AWS Trainium和Inferentia芯片的用武之地。这些计算加速器在纯粹的计算能力方面都无法与Nvidia最新和最好的设计相媲美(Alphabet的Google Cloud内部芯片也是如此)。但这并不是亚马逊在开发Trainium和Inferentia时的主要目标,成本效益是他们目标。
正如他们的名字所暗示的那样,Trainium旨在使用大量数据来训练LLM如何表现。Inferentia用于推理,这是在训练AI模型后完成大量计算工作的地方。推理是受过训练的AI程序如何根据它已经学到的知识做出决定(比如当你向ChatGPT提问时,它会给出答案)。
AWS自己使用Trainium和Inferentia,但也向客户提供更具成本效益的加速器。Jassy在致股东的信中表示,与类似的GPU系统相比,使用Trainium训练的普通人工智能模型“速度提高了140%”,“成本降低了70%”。至于人工智能推理,Jassy表示,自2019年推出以来,其Inferentia芯片已经“为亚马逊等公司节省了超过一亿美元的资本支出”。
简而言之,亚马逊在2015年对Annapurna的3.5亿美元投资看起来将为AWS和股东带来令人难以置信的长期回报。
竞争是一件好事,因为它让商业领袖不断推动他们的公司不断改进。Nvidia将从其面向高级AI的最尖端GPU中大赚一笔,但它还有许多其他芯片也可以不断改进。例如,在3月,它推出了面向AI推理的新L4 GPU,并配有软件堆栈,以帮助优化各种AI工作负载并降低云提供商和客户的总拥有成本。
事实上,虽然亚马逊AWS和其他云提供商通过宣布他们自己的芯片设计来搅局,但AWS仍然是Nvidia的主要客户。AWS的内部芯片目前在这家云巨头的运营中占据了一小部分。
当然,来自同行科技巨头的日益激烈的竞争对Nvidia来说是一个很大的风险。但它远非毫无防备。此外,云计算和人工智能仍处于采用曲线的早期阶段。正如Jassy在他的股东信的结尾所指出的那样,尽管2022年AWS的收入为800亿美元,但“全球IT支出的大约90%”仍然是在尚未迁移到云端的本地系统中产生的。
换句话说,尽管亚马逊AWS在内部设计芯片方面取得了快速进展,但仍有大量新业务可以开展。英伟达会没事的。
亚马逊致股东信中关于芯片的描述摘译:
芯片开发就是一个很好的例子。在去年的信中,我提到了我们对名为Graviton的通用CPU处理器的投资。基于Graviton2的计算实例的性价比比最新一代基于x86的实例高出40%;2022年,我们交付了Graviton3芯片,性能比Graviton2处理器高25%。
此外,随着机器学习的采用持续加速,客户渴望成本更低的GPU(最常用于机器学习的芯片)。AWS几年前开始投资这些专门用于机器学习训练和推理的芯片(推理是机器学习模型提供的预测或答案)。我们在2022年交付了第一款训练芯片(“Trainium”);对于最常见的机器学习模型,基于Trainium的实例比基于GPU的实例快140%,而成本最多降低70%。
大多数公司仍处于训练阶段,但是当他们开发模型并逐步进入大规模生产阶段时,他们会发现大部分成本都在推理上,因为模型是定期训练的,而推理作为其相关应用程序一直在发生我们在2019年推出了我们的第一款推理芯片(“Inferentia”),它们已经为亚马逊等公司节省了超过一亿美元的资本支出。
我们刚刚推出的Inferentia2芯片的吞吐量比我们的第一款Inferentia处理器高四倍,延迟低十倍。随着机器学习即将到来的巨大增长,客户将能够以更低的成本使用AWS的训练和推理芯片完成更多工作。
我们在这方面的创新还没有结束,这项长期投资应该会为客户和AWS带来丰硕的成果。AWS仍处于发展的早期阶段,并有机会在未来十年实现非同寻常的增长。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/296728.html