在「AI 驱动」上好久没发声的阿里云,突然公布了一系列大动作。
5 月 9 日,在 AI 智领者峰会·北京站上,阿里云正式发布通义千问 2.5,中文性能已赶超 GPT4 Turbo。同时,通义千问 1100 亿参数开源模型在多个基准测评收获最佳成绩,超越 Llama-3-70B,成为开源领域最强大模型。不止于此,阿里云模型和 AI 应用定制平台——百炼也迎来全面升级。
这一系列发布多少让人意外。今年以来,阿里云聚焦「公共云优先」战略,但在「AI 驱动」上,迟迟不见踪影。业内一度猜测阿里云在 AI 路线上「躺平」了。
年初,阿里云先是推出公共云产品史上最大幅度降价;3 月底,罗永浩在交个朋友直播间售卖阿里云的公共云产品;此后在机场、地铁站等广告牌上,王小川、陈向东、江南春代言「上云就上阿里云」。
相比之下,阿里云在 AI 路线,尤其是自研模型上却鲜少有新消息放出,倒是有一些投资传闻。去年,阿里集团和阿里云投资了几乎所有的国内大模型,今年也被传追加投资了月之暗面和 Minimax。看上去,阿里云似乎是要用投资「买」一张大模型时代的船票。
但从昨天的发布来看恰恰相反,阿里云对 AI,尤其是基础大模型这个产业关键,依然保持着激进地投入。
此前阿里云在大模型创业团队上几乎大满贯式的投资布局,现在看起来只是「心态绝对开放」的一种动作,以此来支持 AI 生态所有的可能性。技术层面,阿里云全线 AI 业务一直在不断探索,不仅开源、闭源模型齐头并进,在工具和服务上,阿里云「模型即服务」的整个开发栈也全面开花。
阿里云的 AI 战略决心和目标,到现在已经开始完整显现出来。
01 模型和 AI Infra「绝对激进」
其最新发布的闭源 SOTA 大模型通义千问 2.5 相比此前的 2.1 版,在理解能力、逻辑推理、指令遵循、代码能力分别提升 9%、16%、19%、10%,中文能力更是持续领先业界。根据权威基准 OpenCompass 的测评结果,通义千问 2.5 得分追平 GPT-4 Turbo,这是国产大模型第一次取得这么高的排名。
同时,通义多模态模型和专有能力模型也在业界建立了广泛影响。在多个多模态标准测试中,通义千问视觉理解模型 Qwen-VL-Max 得分超越 Gemini Ultra 和 GPT-4V,这款模型已在多家企业落地;代码大模型 CodeQwen1.5-7B 则是 HuggingFace 代码模型榜单 Big Code 的榜首模型,也是国内用户规模第一的智能编码助手——通义灵码的底座。
在开源路线上,阿里云最新开源了 1100 亿参数的 Qwen1.5-110B。该模型在 MMLU、TheoremQA、GPQA 等基准测评中超越了 Meta 最新开源的 Llama-3-70B 模型;在 HuggingFace 推出的开源大模型排行榜 Open LLM Leaderboard 上,Qwen1.5-110B 冲上榜首,堪称当前中国最强的开源大模型。
既做闭源模型开发,又做开源模型,阿里云的基础模型在两条路线上并举。阿里云 CTO 周靖人表示,这是「模型即服务」的内涵之一,来满足用户和开发者生态对基础模型的不同需求。
但有了基础模型,距离模型在具体场景中被用起来也有很大距离。因为每个各行各业的不同企业都有自己特殊的场景、数据、需求,一个标准化的基础模型很难直接被用起来。
为此,阿里云贴着开发者生态的场景需求,升级了 AI Infra 平台——百炼,推出了百炼 2.0。
「当下企业应用大模型存在三种范式:一是对大模型开箱即用,二是对大模型进行微调和持续训练,三是基于模型开发应用,其中最典型的需求是 RAG,以企业数据对大模型进行知识增强。围绕这些需求,百炼打造了模型中心和应用中心,提供最丰富的模型和最易用的工具箱。」周靖人介绍。
对希望直接调用模型进行推理的企业,百炼集成了包括开源和闭源在内的上百款大模型 API,同时联动魔搭开源社区,支持企业上架通用或行业模型,给开发者提供足够多的模型选择。同时,百炼依托阿里云 AI 基础设施,支持千亿级模型的万级并发推理需求。
对需进一步训练模型的用户,百炼提供从数据管理、模型调优、评测到部署的全链路模型服务,用户可弹性按需调用算力,无需关心底层架构。训练过程可视化,还可自动评测模型质量,并与其他模型对比。
对希望打造 RAG 应用的企业,百炼支持 Assistant API 开发模式,可在百炼上轻松创建知识库,并一键开启知识检索增强(RAG),通过 Assistant API 联合输出。同时,百炼支持 agent 智能体开发,并能实现多智能体协作、对话记忆等高级功能。
事实上,随着大模型成为软件开发的新范式后,国内各大模型厂商都推出了模型 api 供开发者调用,但大部分厂商在微调及 AI 应用开发工具上相对缺乏。阿里云百炼平台则依托阿里云丰富的基础设施,在工具链丰富度、大规模 AI 服务能力以及对开发者生态的融合上,更胜一筹。
这得益于其强大的云计算和生态能力。大模型时代的云计算,长什么样子?这个问题在大模型还没有火出圈时,阿里云就在 2022 年云栖大会上首次提出,今天也被整个行业拥抱成为大模型时代云的新架构——MaaS(模型即服务)。百炼这样的工具层正是 MaaS 的一种表现形式。
但 MaaS 并不是无中生有的新架构,而是云计算中的 PaaS 工具层在大模型时代的延伸。阿里云之所以最早看到这一趋势,也是由于其在云计算架构上的前瞻性。随着基础模型的丰富,百炼平台的完善, 开发者可以快速定制自己的模型和 AI 应用,像玩乐高一样,从场景和数据出发,DIY 大模型时代的 AI 应用。
不难发现,阿里云的 AI 路线在开源、闭源、工具都朝着行业领先在投入和「较劲儿」,从这一系列发布中,你很难发现阿里云用「生态投入」替代「技术研发」的苗头,更谈不上坐享其「卖铲子」的基础设施定位。取而代之地,阿里云更加纵深的「AI 驱动」路线显现。
02 心态上「绝对开放」,业务上「全面覆盖」
看完了这一串眼花缭乱的发布,最后我们回到一个基础的问题:阿里云的「AI 驱动」战略到底是什么思路?
ChatGPT 发布一年以后,大型云厂商逐渐构建起日趋完善的 AI 产品服务体系,并逐渐分化出自己的特点。有的主打开放生态,有的主打自研闭源,也有的专注工具层。
而阿里云当下的路线,是覆盖了几乎所有的 AI 技术栈,并在每一条线上都持续投入。
在基础模型上,阿里云不仅自研对标 GTP-4 水平的闭源模型,也在开源模型上一骑绝尘,甚至投资了国内其他的大模型公司;在 AI 工具层面,从 Prompt Engineering、RAG 到 Agent,任何一条新的技术栈出现,阿里云也都在第一时间跟进。
在场景上,阿里云没有像其他云平台一样,聚集在一两个垂类场景或者电商、生成等一两个热门场景,走单点突破然后以点带面的打法,而是以极高的压强投入,覆盖所有重点的业务场景。
作为国内最大的云厂商,阿里云的规模和资源决定了其有做这种全覆盖打法的底气。但更深层次地,决定其这么做的原因是:在当前这个阶段,AI 技术栈还远非收敛的时刻,更不用说最终哪个场景可以长得足够大这样的问题。另外,阿里云企业客户类型和需求的丰富度,也是国内之最,驱使它必须全面布局。
过去不到两年的时间里,从 GPT-3.5 再到 GPT-4 Turbo 甚至传言中的 4.5/5,几乎每过半年 AI 基础模型或工具能力就会迎来一次代际级的提升,每一代 AI 的能力就像是从高中生到大学生、职场新人再到总监、VP。与此同时,技术栈也在快速变化,从对话式 AI,到智能助理、智能体、RAG、Prompt Engineering……远远没有到 AI 技术范式出现定格的时刻。
阿里云目前显然没有放弃某一条路线的打算。而是在算力平台、开源社区、开源模型、工具链上全方位投入,不仅自研开源和闭源模型,还以开放的姿态引入产业链的各个合作伙伴。这让他们在过去一年里收获了最多的用户、开发者和场景用例。阿里云透露,通义千问每天的日调用量早已过亿,也拥有 9 亿企业客户数成为中国企业最受欢迎的大模型。
场景上也是如此,不是用过去的视角笃定某一个行业会率先爆发,而是从客户需求出发,探索和满足各行各业的可能性。这与当年移动时代的阿里云有相似之处,阿里云创始人王坚博士在 2014 年自己去米哈游办公室研究早期阿里云产品故障时,后者还只是大学毕业生创建的小团队,谁能想到包括米哈游在内的游戏赛道会成为云计算主要场景之一,米哈游这样一个当年稚嫩的小公司,也成了阿里云今天 Top10 的客户。
心态上「绝对开放」,业务上「顺其自然」地全面覆盖。不去争论「开源、闭源哪个更好」,或者「单一模型架构、MoE 架构哪个更优」,又或者「电商、视频哪个会先诞生杀手级 App」,而是覆盖每一条技术栈,每一个场景,不放过每一个可能性。
这是阿里云「AI 驱动」战略的真相,与外界此前猜测的躺平,可能恰恰相反。