企业正在向生成式人工智能(GenAI)投资数千亿美元,希望它能改善他们的运营。然而,这些公司中的大多数还没有看到他们在大型语言模型(LLM)和新兴的GenAI上的投资回报。那么,是什么阻碍了我们实现GenAI所承诺的巨大回报呢?
英伟达首席执行官黄仁勋在上个月的GTC主题演讲中表示:“有些事情正在发生。不仅仅是我们的行业正在发生变化……计算机是当今社会最重要的工具。计算领域的根本性变革影响着每一个行业。”
英伟达位于GenAI行业的中心,2022年11月30日当OpenAI向世界推出了ChatGPT,几乎一夜之间,每个人似乎都在谈论这款模仿人类交流的程度惊人的新人工智能产品。无论是聊体育、接听客服电话,还是像莎士比亚一样押韵,ChatGPT似乎都能毫不费力地做到。
从那以后,GenAI的业务开始起飞,科技巨头一直是它最大的啦啦队长。微软向OpenAI投资了130亿美元,而亚马逊最近向Anthropic投资了27.5亿美元,使其总投资达到40亿美元。谷歌已经向Anthropic投资了20亿美元,Databricks以13亿美元收购了MosaicML, SAP也向一系列LLM提供商投资了10亿美元。
虽然GenAI的软件正在蓬勃发展,但主要受益的硬件厂商仅有一家公司。英伟达拥有90%以上的LLM训练市场。这对该公司来说是件好事,它的收入呈爆炸式增长,总市值超过2万亿美元。
GenAI的大部分成果都在软件和服务领域。几乎在一夜之间,数百家构建数据和分析工具的软件供应商将自己的产品转向新兴的GenAI堆栈,而风险资本家则向无数人工智能初创企业投入了数十亿美元。
有这么多的资金在流动,它已经变得相当泡沫了。但市场有希望从今天的数十亿美元能在明天变成数万亿美元。麦肯锡2023年6月的一份报告估计,GenAI在几十个用例中“每年可以增加相当于2.6万亿至4.4万亿美元的收入”。麦肯锡表示,大部分好处将来自四方面应用,包括自动化客户运营、营销和销售、软件工程和研发。
毫不奇怪,私营企业正在迅速行动,抓住新的商业机会。毕马威(KPMG)上个月对商界领袖进行的一项调查发现,97%的人计划在未来12个月内投资GenAI。其中,近25%的人投资在1亿至2.49亿美元之间,15%的人投资在2.5亿至4.99亿美元之间,6%的人计划投资超过5亿美元。
人们对GenAI感到兴奋,并投入巨额资金开发它,这是有正当理由的。硅谷资深人士Amr Awadallah表示,如今的大型语言模型代表了人工智能模型工作方式和功能的根本转变。
“他们正在接受的训练是理解、推理、理解,能够解析英语、法语或中文,理解物理、化学、生物的概念。” Awadallah说,他在2020年与人共同创立了一家名为Vectara的GenAI初创公司,他也是Cloudera的联合创始人。“他们接受的训练是为了理解,而不是为了记忆。这是一个关键点。”
LLM不只是像鹦鹉一样重复单词,而是表明他们可以运用所学来解决新问题。他说,这种学习能力让人们如此兴奋,也是推动LLM投资的原因。
“神经网络应变内部的随机权重和参数网络的进化方式使其不仅仅是重复单词。它实际上能理解。它真的理解世界是关于什么的。” Awadallah说,“它们只会变得越来越聪明。毫无疑问。业内所有人都认为,到2029年或2030年,我们将拥有超过人类智力的LLM。”
然而,根据Awadalla的说法,有几个问题阻碍了LLM在企业中发挥宣传作用。这些症状包括产生幻觉(或编造)的倾向;缺乏对模型如何产生结果的可见性;版权问题;以及提示工程难题。这些都是Vectara正在用其GenAI软件解决的问题,其他供应商也在解决这些问题。
法律和伦理
另外伦理、法律和监管方面的担忧也阻碍了GenAI的推广。欧盟投票正式通过了《人工智能法案》,该法案禁止某些形式的人工智能,另一些形式的人工智能需要事先获得的批准。出于对历史上不准确图像的担忧,谷歌取消了其新Gemini模型的图像生成功能。
OpenAI上周宣布,它的新语音引擎可以在15秒的采样后克隆一个人的声音。然而,不要期望在短时间内看到语音引擎公开可用,因为OpenAI还没有发布它的计划。该公司在一篇博客文章中写道:“我们认识到,制造类似于人类声音的言论存在严重风险,这在大选年尤其重要。”
加州大学圣地亚哥分校的研究科学家、圣地亚哥超级计算机中心的首席数据科学官?lkay Alt?nta?说,在很大程度上,科技界还没有开始认真对待GenAI和LLM的伦理问题。
“你不需要数据科学家来使用它们。这就是数据科学的商品化。”她说,“但我认为我们仍处于‘我如何与人工智能互动,以及可信赖性和道德使用’的时期。”
Alt?nta?说,应该对GenAI应用进行伦理检查和伦理技术。但要弄清楚这些检查和技术究竟应该在什么情况下应用并不容易。
她说:“从应用的方式来看,你可能会有一个看起来非常符合标准的应用程序。”“但当你把两种技术、两组数据或多个东西放在一起时,这种整合就会把它推到一个不隐私、不道德、不可信或不够准确的地步。这时就开始需要这些技术工具了。”
硬件和延迟
另一个阻碍GenAI应许之地到来的问题是严重缺乏计算能力。
一旦GenAI的淘金热开始,许多最大的LLM开发商抢购可用的GPU来训练他们的大型模型,这可能需要几个月的时间来训练。其他科技公司一直在囤积GPU,无论是在本地运行还是在云端运行。与台积电签订芯片生产合同的英伟达(Nvidia)一直无法生产出足够的GPU来满足需求,结果导致了“GPU挤兑”和价格上涨。
英伟达的硬件竞争对手们已经嗅到了商机,为了满足市场需求,他们正在大力投入。英特尔和AMD正忙着研发他们的人工智能加速器,而其他芯片制造商,如Cerebras和Hailio,也在推出新的芯片。所有的公共云提供商(AWS、Azure和Google cloud)也都有自己的人工智能加速器。
但在未来,所有GenAI工作负载都将在云中运行是值得怀疑的。更有可能的未来是,人工智能工作负载将被推到边缘设备上运行,这是OctoAI首席执行官兼创始人Luis Ceze正在下的赌注。
Ceze说:“对于我们来说,现在显然有机会让模型在本地运行,然后将其连接到云端,这是我们一直在做大量公开研究的事情。”“这是我们正在积极努力的事情,我认为未来这是不可避免的。”
根据Ceze的说法,除了以混合方式运行GenAI工作负载外,LLM本身也将以混合方式组成和执行。“如果你考虑一下这里的潜力,那就是我们将在今天与计算机的几乎每一次互动中使用生成式人工智能模型。”“很少只有一种模式。这是一组可以互相交谈的模型。”
为了真正充分利用GenAI,公司需要获得尽可能最新的数据。事实证明,这一要求对专门从事大容量数据提取的数据库供应商来说是一个福音,比如开发GPU驱动数据库的Kinetica公司。
Kinetica首席执行官Nima Negahban在最近的GTC展会上说:“现在,我们看到实时RAG(检索增强生成)的发展势头最强劲,基本上是将这些实时工作负载暴露出来,这样生成解决方案就可以利用实时更新和增长的数据。”“这是我们看到势头最大的地方。”
GenAI的“气泡裂缝”
计算机社区是否会团结起来解决所有这些挑战并实现GenAI的巨大承诺还有待观察。但裂缝开始出现,表明科技股价值已经高估,至少到目前为止是这样。
例如,据《华尔街日报》上周的一篇报道,风险投资公司红杉资本(Sequoia)的一份报告估计,在英伟达GPU上投资了500亿美元的人工智能资本玩家,只获得了30亿美元的收入。
去年在美国国会就人工智能问题作证的纽约大学教授Gary Marcus在今年早些时候发表的Substack博客中引用了《华尔街日报》的这篇报道。“这显然是不可持续的,”他写道。“整个行业都建立在炒作的基础上。”
谷歌DeepMind主管Demis Hassabis周日对英国《金融时报》表示,流入人工智能初创公司的数十亿美元“带来了一大堆炒作,或许还有一些欺诈”。
归根结底,LLM和GenAI是非常有前途的新技术,它们有可能从根本上改变我们与计算机的交互方式。目前尚不清楚的是这种变化的程度以及何时会发生。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/167670.html