除了“ChatGPT之父”奥特曼被OpenAI董事会罢免之外,刚刚过去的这几天,有关大模型的消息多次刷屏。先是马斯克旗下人工智能初创公司xAI推出首款人工智能模型Grok,公开叫板OpenAI,再是OpenAI转身甩出一个“王炸”,GPT-4 Turbo、自定义GPT及GPT商店接连登场,令整个业界为之震撼。紧接着,一场DDoS攻击导致ChatGPT发生全球大宕机,不得不宣布推迟新功能上线时间,并暂停新的ChatGPT Plus注册。
国内大模型市场也是一片沸腾。招联金融、马上消费等连番发布金融大模型,OPPO、小米、vivo等纷纷官宣大模型“上机”,美的、长虹、TCL等家电品牌下场自研大模型……在“模型热”正酣之时,百度CEO李彦宏却直言“国内大模型太多、应用太少”,再度引发热议。“卷”起来的GPT生态圈背后是对大模型未来的思索。
马斯克“Grok”对战“ChatGPT”胜算几何?
马斯克的高调加入无疑会让大模型之争进一步升级。业内人士猜测,马斯克选择在这个时间点发布模型,是为了“对抗”OpenAI。不过,相较之下,Grok的入局晚了不少,胜算几何尚难评估。
OpenAI最近举办的首次开发者大会赚足了眼球,比如全新升级的GPT-4 Turbo支持128k上下文,价格却降低了2/3,冲击了现有的商用服务价格;新推出的GPTs将大模型从技术推向了商业化,这对产业发展而言是至关重要的一步。
OpenAI创始人Sam Altman对ChatGPT至今的成就进行了回顾。他说道:“到目前为止,我们已经拥有大约200万的开发者,他们在我们提供的API上构建了各种各样的应用,并取得了令人惊叹的成果。超过92%的世界500强企业都在使用我们的产品作为基础。此外,我们的周活跃用户数量已经达到了约1亿。”这些数据意味着OpenAI在构建大模型商业闭环的过程中,已经成功地吸引了最有付费意愿和需求的客户群体。
不过,ChatGPT也并非十全十美。北京计算机学会数字经济专委会秘书长王娟向《中国电子报》记者表示:“ChatGPT对新生事物认知有盲点和漏洞,很多测试开始给模型‘喂数据’诱导结果,大模型也有脱轨的时候。”
“生成式AI的市场应用依然处于早期阶段,一切皆有可能。”Forrester副总裁、研究总监戴鲲在接受《中国电子报》记者采访时分析称,“xAI的商业版图融合了大模型、社交平台、自动驾驶与脑机接口等不同领域,差异化的生态能力为Grok的未来发展提供了独具特色的发展可能。”
根据已经公布的一些测试数据,Grok在GSM8k(中学数学单词)、MMLU(多学科多项选择)、HumanEval(代码完成)、MATH(初高中数学)等多项数学和推理能力的基准测试中性能均优于GPT-3.5,虽然距离GPT-4还有或多或少的距离,但作为第一次正式发布的公测版本,Grok-1已经有非常显著的进展。
而在训练数据方面,GPT-4在训练数据的广度和深度方面都具备显著的先发生态优势,也可以在调用时实时搜索Web数据,这是Grok所不具备的。Grok的差异化优势在于它可以更有效地访问X平台(即之前的Twitter)的信息,这赋予了Grok实时社交平台数据洞察及多样化的生成风格。
“巨量、实时且独特的数据是该模型的基础,可以实时从推文中获取最新知识,主打一个实时性,也就是说,这个模型还在不断学习和更新。同时,Grok有着不走寻常路的幽默模式语言风格,马斯克的个人风格在其中凸显,开发语言是Rust以及深度学习框架新秀JAX,分布式的架构让系统避免了大模型的系统性风险。”王娟表示。
“Grok的定位并不一定是GPT的竞品,GPT定位是全场景的AI平台,Grok更多是适合X的大模型应用平台,两者的定位不一样。Grok是一个不错的补充。”开放原子开源基金会TOC主席谭中意对《中国电子报》记者说道。
GPT生态选择题:开源还是闭源?
无论是Grok与OpenAI的对决,还是国内各种大模型的比拼,想要突出重围,生态建设是重中之重。这也是OpenAI、阿里云、腾讯等厂商着急做模型商店的根本原因。
“OpenAI的模型商店从理念上与国内大部分厂商的战略规划是一致的,都希望通过模型商店的方式打造生态,一方面便于中小厂商引流,另一方面更利于客户选择和开发人员与厂商协作,以此实现围绕GPT大模型更强的黏性,最终推动营收的增长。”戴鲲说道。
但同时他也指出,由于厂商自身的市场定位与发展战略不同,模型的覆盖、模型被集成的机制、面向的客户群体、针对的行业细分与商业场景、对底层云平台的选择、与相关云服务的集成、计量计费、许可与定价模式等各个方面肯定会存在差异。
“虽然都要做模型商店,但OpenAI要做的模型商店和腾讯、阿里等要做的模型商店差异很大。腾讯、阿里云提供的是MaaS服务(模型即服务),它们的模型商店支持多种不同的模型(开源和闭源的模型都包括);OpenAI则是在其闭源的ChatGPT上提供各种定制化的服务,依赖于其提供的底层模型。”谭中意说道。
就像持续至今的“iOS”和“安卓”之争,大模型的生态建设同样面临开源还是闭源这道选择题。谭中意认为:“OpenAI的ChatGPT是闭源的,Meta的Llama2是开源的。以后的大模型生态,将是开源生态和闭源生态之间的竞争和合作同时并存。”
在国内,百川智能大模型、智源AI大模型、腾讯混元大模型、阿里云通义千问大模型等都宣布加入开源的“大部队”。而华为的盘古大模型、百度的文心一言等则选择了闭源。
戴鲲指出,与传统技术领域不同,大模型的开源包含多种不同层次,涉及模型架构、用于模型预训练的代码与超参数、完成预训练的模型权重与参数、用于模型评估的输入数据预处理代码与模型评估代码、全过程配置与开发文档、API与插件接口、许可证方式等。保持开放的接口与插件体系、搭配开放的文档与有限开源的商业许可是必然的选择,而其他层次的开源与否可以根据市场发展动态选择。
“模型商店带来的将是更加广泛的数据和商业模式。如果开源能够提供闭源所不能替代的活跃度,同时促进开发,当然很好。但如果只是增加了短期的应对负荷和同质化产品竞争,对技术和商业价值都没有太大意义,闭源就很好。”王娟说道。同时她指出,OpenAI至少目前的目的不是纯粹的商业化。腾讯、阿里的模型商店是要用模型盈利和定价带动应用层的配套,以及云和硬件产业链市场。
百川智能创始人、CEO王小川表示,未来开源和闭源会像苹果和安卓系统一样并行发展。大部分服务会依赖开源模型,而闭源会提供特定的增值服务。开源模型提供80%,最后靠闭源提供剩下的20%。
模型生态究竟应该怎么建?
发展至今,无论是通用大模型还是行业垂直大模型,赛道上都已挤满了各类玩家,有互联网科技公司,有AI技术公司,还有手机厂商、家电厂商、金融机构、文娱公司、教育机构等跨界选手。这反映出业界对大模型抱有极大的热情与信心,但同时也表明产业尚未形成一个真正具备吸引力和竞争力的模型生态。
谈及构建模型生态的关键要素,戴鲲表示,模型自身的能力、厂商的平台化能力和生态运营能力,三者缺一不可。首先,模型要有卓越的性能、出色的多模态支持、良好的开放性与快速迭代、良好体验的开发环境、完善的文档与案例等;其次,厂商必须具备平台化能力,比如涵盖公有云、私有云与边缘云在内的服务于ModelOps的全栈云原生能力平台化,围绕模型的人工智能平台与数据管理的全生命周期平台化,面向各行业细分业务场景进行模型定制的平台化,以及涵盖从底层芯片到开发和上层应用的软硬件适配平台化等;此外,厂商还需具备生态运营的能力,比如对国内、国际开源社区与产业联盟的贡献与影响,从模型开发到工程实践对开发人员的有效支持以及企业业务与技术决策者的思想领导力等。
“头部厂商积累的数据客观上形成模型生态的竞争基础,所以在生态建设方面,字节、腾讯、阿里这些企业的核心竞争力更具优势。”王娟表示。实际上,模型并非越多越好,国内现在大模型很热,已有的大模型愿景大多是做全产业链布局的。很多看上去不错的大模型,实际本身不仅不产生任何价值,还造成了算力、人力和财力的浪费。
根据专家预测,未来几十年与大模型相关的产业形态,首先是有几家提供通用大模型服务的企业,包括百度、阿里等;其次是多家企业提供行业大模型的服务,包括金融、能源、制造等行业;最后是数百家甚至上千家技术企业提供企业内部的私有化大模型服务,用于知识管理、软件开发、供应链等具体场景。每家企业内都会有很多大模型的服务,其中大部分是部署在企业内部的私有化大模型服务,也有少部分是访问公网大模型API服务。
“要建立不错的生态环境,需要卓越的技术能力和商业能力,从国内大模型厂商来看,百度相对而言技术实力比较靠前,腾讯和阿里云也有丰富的应用场景,都有不错的前景。”谭中意表示。不过,对比OpenAI,差距还是非常明显的。比如中文数据集在数量上和质量上还跟英文数据集有很大差距,算力也受到很大限制,架构在大模型上的开发生态才刚刚开始。
“我们需要的大模型是一个能够持续进化的大模型,是一个能在此基础上产生健康生态(开发活跃、良性竞争、技术和商业都兼顾)的大模型,中国的大模型生态应该是闭源和开源互相竞争、互相合作的模式。”谭中意表示。