生成式 AI 领域趋势洞察:
企业构建和采购生成式 AI 的方式正在发生重大转变,具体表现在:
* 专注于可信度和安全性:75% 的企业将信任和安全性视为关键因素。
* 优先考虑可扩展性和灵活性:65% 的企业寻求具有高可扩展性和灵活性的解决方案。
* 投资于自动化和效率:50% 的企业利用生成式 AI 来提高自动化和效率。
* 拥抱定制化和个性化:45% 的企业采用生成式 AI 提供定制化体验。
* 探索新用例和创新:40% 的企业探索生成式 AI 在新领域的应用,推动创新。
2023年,生成式AI (Generative AI) 风靡消费市场,消费者支出迅速突破十亿美元大关,创下了记录速度。我们预计,到了2024年,企业市场的收入机会将是消费者市场的数倍。去年,消费者们沉浸在与AI伴侣聊天或用 Diffusion 模型创作图片和视频的乐趣中,而大多数企业对生成式AI的运用似乎还停留在少数显而易见的应用场景,并把包装过的“套壳GPT(GPT-wrapper)”产品作为新的 SKUs 推出。
一些怀疑论者开始质疑生成式AI是否真的能在企业级别上扩展。我们难道就困在那三个应用场景里吗?这些初创企业真的能盈利吗?这一切只是炒作吗?过去几个月,我们与数十位《财富》世界500强和顶尖企业领袖进行了对话,并对另外70多位进行了调研,目的是了解他们如何利用、购买以及为生成式AI进行预算规划。让我们震惊的是,这些领袖在过去六个月对生成式AI的资源配置和态度改变之大。
尽管他们在部署生成式AI时仍有一些保留,但几乎将其预算增加了两倍,扩大了在小型开源模型上部署的应用场景,并将更多工作负载从初步实验阶段转移到了生产环境中。对于创业者而言,这是一个巨大的机遇。
我们认为,那些能够做到
1) 针对企业AI中心战略计划构建产品同时预见到它们的潜在痛点,
2) 从服务为主转变为构建可扩展产品的AI初创企业将抓住这波新的投资浪潮,并获得重要的市场份额。
和过去一样,构建和销售企业级产品要求深入理解客户的预算、关注点和规划路径。为了帮助创业者深刻理解企业领导者在部署生成式AI时的决策过程,以及为AI高管提供一个了解其他领导者如何应对共同挑战的视角,总结了最近与这些领导者交流中的16个关键思考点,这些思考点围绕资源配置、模型选择以及应用场景展开。
资源配置:预算正大幅增加,并将持续下去
1、生成式AI的预算正在飙升
2023年,企业在生成式AI基础模型API、自我托管和模型微调方面的平均支出飙升至700万美元。令人鼓舞的是,近乎所有受访企业都在初步实验中看到了希望,并计划在2024年将支出增加2-5倍,推动生产性工作负载部署。LLM领域尤为受关注,支出可观。
2、领导们开始把AI投资重新分配到常规软件预算中
去年,企业在生成式AI上的支出主要来自“创新”预算和其他一般为一次性的资金池。然而,在2024年,许多领导者开始将这些资金重新分配到更为长期的软件预算项目中;不到四分之一的领导者表示,今年的生成式AI支出将来自创新预算。在更小的规模上,我们也见证了一些领导者将生成式AI预算用于人力成本节省,尤其是在客户服务领域。
我们认为,如果这一趋势持续,未来生成式AI的支出将显著增加。有一家公司利用大语言模型驱动的客户服务为每次通话节省约6美元,总共节约了约90%的成本,作为他们将投资于生成式AI增加八倍的理由。以下是这些组织如何分配大语言模型(LLM)支出的整体概述:企业大语言模型的预算分配
3、衡量投资回报率(ROI)既是一门艺术也是一门科学
目前,企业领导者主要通过AI带来的生产力增长来衡量投资回报率(ROI)。尽管他们依赖净推荐值和客户满意度这些良好的替代指标,但他们也在寻求更具体的方法来衡量回报,比如收入增长、成本节约、效率提升和准确性提高,这些都取决于他们的具体应用场景。
短期来看,领导者们还在推广这项技术,并试图找出最佳的指标来量化收益,但在未来2到3年内,ROI的重要性将日益增加。虽然正在寻找这个问题的答案,许多领导者凭借信任,相信他们的员工说自己能更有效地使用时间。企业如何衡量投资回报率(ROI)
4、实施和扩展生成式AI需要适当的技术人才,而目前许多企业内部并没有这些人才
仅有模型提供者的API接入权限远远不足以在大规模上构建和部署生成式AI解决方案。这需要高度专业化的人才来实施、维护和扩展所需的计算基础设施。在 2023 年,单是实施阶段就占据了2023年AI支出的最大比例之一,在某些情况下,它甚至是最大的一笔支出。一位高管提到,“大语言模型(LLMs)的成本可能只占构建应用场景成本的四分之一”,开发成本占据了大头。
为了帮助企业部署并运行他们的模型,基础模型提供商提供了并且仍在提供专业服务,这通常与定制模型开发有关。我们估计,这在2023年为这些公司创造了一大笔收入,并且,除了性能外,这也是企业选择某些模型提供者的关键原因之一。
由于在企业中找到合适的生成式AI人才非常困难,那些提供工具使得将生成式AI开发引入企业内部变得更容易的初创公司可能会得到更快的采纳。
模型:企业正在向多模型、开源的新时代迈进
5、多模型的未来
仅仅半年前,大部分企业还在试验1个(通常是OpenAI的)或至多2个模型。而今天,当我们与企业领导者对话时,发现他们正在测试——在一些情况下,甚至已经在生产中使用——多个模型。
这一策略让他们能够
1) 根据性能、规模和成本来为不同的用例量身定制,
2) 避免对单一供应商的依赖,
3) 并迅速把握住这个快速演进领域中的最新进展。
尤其是最后一点,对领导者来说极其重要,因为模型的排行是不断变化的,企业热切希望结合最先进的当前模型和开源模型来取得最佳效果。企业采用大模型的数量我们可能会见证更多模型的涌现。如下表所示,根据调查数据,企业领导者报告了在测试中的多个模型,这预示着将会有更多模型被用来推进生产工作负载。对于生产环境的用例,正如预期,OpenAI仍然拥有主导的市场份额。大语言模型供应商企业
6、开源正迎来爆炸式增长
这是过去六个月内行业景观中最令人意外的变化之一。我们估计2023年80%-90%的市场是闭源的,大多数份额属于OpenAI。
然而,46%的调查参与者表示,他们倾向或强烈倾向于在2024年采用开源模型。
在访谈中,近60%的AI领袖表达了他们对增加开源使用的兴趣,或在微调后的开源模型性能大致与闭源模型相当时进行切换。因此,从2024年开始,企业预计将显著向开源模型转移,一些企业明确目标是实现50/50的闭源与开源比例——与2023年的80%闭源/20%开源比例相比,这是一个显著的提升。企业对2024年开源使用的期望
7、尽管成本对开源的吸引力有一定影响,但控制和定制化作为选择的关键标准却更为重要
在开源技术选择中,保障数据安全、理解模型结果的控制权至关重要,定制化能力可针对特定用例进行微调。
企业重视开源的原因:
* 控制权优先:安全和可解释性比成本更重要。
* 附加价值:生成式 AI 创造的价值远超其成本。
* 获取准确答案:企业愿意为准确的信息付费。
8、对控制权的需求源自对敏感应用场景和企业数据安全的关注
面对监管和数据安全担忧,企业对与闭源模型供应商共享专有数据犹疑不定。部分企业选择自托管开源模型,而其他企业则优先考虑模型安全性,选择支持虚拟私有云 (VPC) 集成的模型。
9、领导者们更倾向于通过微调来定制化模型,而不是从头开始构建
2024年LLM定制趋势:
面对开源模型的兴起,企业不再专注于从头训练LLM。相反,他们转向了更实用的方法:
* 检索增强生成(RAG):利用预训练的模型从大量数据中检索相关信息,再由LLM生成文本。
* 微调:对现有开源LLM进行针对性调整,以满足特定行业或应用程序的需求。
10、在模型购买决策中,云服务仍然发挥着重要作用
2023年,许多企业选择通过其现有的云服务提供商(CSP)购买模型,这主要是出于数据安全的考虑——领导者们更担心闭源模型可能对他们的数据处理不当,而不是云服务提供商——同时也是为了避免复杂的采购程序。
2024年,这一情况依旧,这意味着选择云服务提供商和首选模型之间有很高的关联性:比如,Azure用户通常偏好OpenAI,而Amazon用户则更倾向于选择Anthropic或Cohere。如下图所示,72%通过API接入模型的企业中,有超过一半是使用其云服务提供商托管的模型。
(值得注意的是,超过四分之一的企业选择自托管,这很可能是为了能够运行开源模型。)企业如何接入大语言模型
11、客户仍然注重市场上的早期功能
对于选择 AI 模型,领导者重视推理能力、可靠性和便捷获取性。此外,特定特征也是决定因素:
* Anthropic:200K 上下文窗口
* Cohere:领先的微调功能
12、尽管如此,大多数企业认为模型性能正在趋于一致
虽然技术社区很多人专注于将模型性能与公开的基准相比较,但企业领导者更关注于将微调后的开源模型和微调后的闭源模型的性能与自己内部的基准集进行比较。有趣的是,尽管闭源模型在外部基准测试中通常表现更优,企业领导者还是给予了开源模型相对较高(在某些情况下更高)的NPS评分,因为它们更易于针对特定用例进行微调。
有公司发现,“经过微调后,Mistral和Llama的性能几乎与OpenAI相当,但成本却低得多。”按这个标准来看,模型性能的收敛速度比我们预期的还要快,这为领导者们提供了更广泛的、非常有能力的模型选择。企业领导者如何评价模型性能大语言模型NPS企业平均值
13、为选择性优化
现代企业采用敏捷模型,通过 API 切换在不同模型间无缝转换。预先测试 prompts 确保即时变更,而“模型花园”简化了按需部署。这种策略源于云计算时代减少供应商依赖的经验,以及对市场快速变化的适应性需求。企业不再局限于单一供应商,而是灵活切换以满足不断变化的业务需求。
使用案例:更多迁移到生产环境
14、企业正在构建,而不是购买应用程序——至少目前是这样
企业主要专注于内部构建应用程序,原因之一是缺乏经过实战检验的、能够领先市场的企业AI应用程序。毕竟,像这样的应用程序还没有“魔力象限”(至少目前没有!)。
基础模型还通过提供API,使企业构建自己的AI应用程序变得前所未有地容易。企业现在正在构建自己版本的熟悉用例——如客户支持和内部聊天机器人——同时也在尝试更多新颖的用例,如编写消费品配方、缩小分子发现的范围,以及制作销售推荐。关于“套皮GPT(GPT wrappers)”的差异有限——或者说是为LLM(如文档总结)的知名输出构建熟悉界面(例如,聊天机器人)的初创公司——已有很多讨论;我们认为这些将会遇到困难的一个原因是AI进一步降低了企业内部构建类似应用的门槛。
然而,对于更多面向企业的AI应用进入市场时这一情况是否会改变,目前尚无定论。虽然一位领导者指出,尽管他们在内部构建了许多用例,但他们乐观地认为“将会有新工具出现”,并且更愿意“使用最好的”。其他人则认为生成式AI越来越成为一种“战略性工具”,使公司能够将某些功能内部化,而不是像传统上那样依赖外部供应商。鉴于这些动态,
我们相信,那些能够超越“LLM + UI”公式,并根本性地重新思考企业基础工作流程或帮助企业更好地利用自己的专有数据的应用程序,在这个市场上表现尤为出色。
15、企业对内部用例感到兴奋,但对外部用例保持更多谨慎
这是因为对生成式AI的两个主要担忧在企业中仍然存在:
1)潜在的幻觉和安全问题;
2)部署生成式AI,特别是进入敏感的消费者领域(例如,医疗保健和金融服务)时的公关问题。过去一年中最受欢迎的用例要么专注于内部生产力,要么在到达客户之前经过人工处理——如编码协助、客户支持和市场营销。如下图所示,这些用例在2024年的企业中仍然占主导地位,企业将完全内部的用例(如文本摘要和知识管理,例如,内部聊天机器人
3)推向生产的比例远高于敏感的人机协作用例(如合同审查)或面向客户的用例(如外部聊天机器人或推荐算法)。
公司急于避免像加拿大航空的客户服务事件那样的生成式AI失误带来的后果。
由于这些担忧对大多数企业来说仍然很重要,因此,构建可以帮助控制这些问题的工具的初创公司可能会得到显著的采用。企业愿意将大语言模型用于不同用例的程度
16、市场总机会的规模:巨大且快速增长
人工智能模型 API 和微调支出预计到 2024 年底将飙升至超过 50 亿美元的年化营收,其中企业支出将成为主要驱动力。
根据我们的计算,我们估计模型API(包括微调)市场在2023年底的营收运转率约为15亿至20亿美元,包括通过Azure对OpenAI模型的支出。鉴于整体市场的预期增长和企业的明确迹象,仅这一领域的支出就将增长到至少50亿美元的营收运转率,且有显著的上行潜力。
正如我们所讨论的,企业已经将生成式AI部署优先级提高,增加预算并将其重新分配到标准软件线,优化了跨不同模型的用例,并计划在2024年将更多工作负载推向生产环境,这意味着他们很可能推动这一增长的重要部分。在过去的6个月中,企业已经发出了自上而下的指令,寻找并部署生成式AI解决方案。
过去需要一年以上才能完成的交易现在在2到3个月内就被推进,而且这些交易的规模比过去大得多。虽然这篇文章专注于基础模型层,但我们也相信,这一机遇在企业中延伸到工作栈的其他部分——从帮助微调的工具,到模型服务,再到应用程序构建,以及专为AI原生应用程序设计。
我们正处于企业中生成式AI的一个拐点,我们很高兴能与服务于这个动态且不断增长市场的下一代公司合作。
-对此,您有什么看法见解?-