亏本甩卖抢份额,“百模大战”分水岭?

来源|Tech星球(微信ID:tech618)

文 | 王琳

相比于5月至少举办了13场与大模型相关的发布会,推出一堆新产品,突然爆发的价格战似乎更令人心潮澎拜。

国内大模型主流厂商,包括阿里巴巴、字节跳动、腾讯、百度这类互联网大厂,讯飞科技这样的中型互联网公司、被称为“大模型四小龙”之一的智谱AI也悉数加入,降价幅度高达97%,有些甚至直接免费。

过去,价格战大都是技术壁垒不高的行业,比如外卖大战、网约车大战。但国内大模型因为没有太多差异化,导致只能卷价格。他们希望以价换量,吸引更多开发者,用更多的数据优化模型效果。差异化在于,外卖、网约车降价,是双边网络效应,带来的是生产关系的改变,而大模型降价,带来的生产力供给的改变。

但开发者们对此似乎并不感冒。一位AIGC行业创业者称,国内大模型吹牛可以,但关键时刻就会掉链子。

互联网公司们希望大模型上能长出繁荣的生态,就像安卓系统上构建出庞大的移动互联网一样。但现实是,根据Questmobile数据,中国的四款主要AI应用在2024年3月底的总日活跃用户(DAU)达到了800万,这甚至比不上一个腰部互联网公司产品的日活跃用户。

没有生态,大模型更像空中楼阁。但降价真的能带来生态的繁荣吗?

降价,头部大模型一个不落

颇为出人意料的是,此次大模型价格战的发起者并非主流意义上的科技企业,而是一家私募基金——幻方量化。

5月6日,私募基金幻方量化旗下公司深度求索推出 DeepSeek-V2 模型,官方称,这款模型性能逼近 GPT-4-Turbo,但 API 价格每百万 tokens 输入1元、输出2元,仅为 GPT-4-Turbo 的近百分之一。相当于,1块钱可以买200万tokens,这是5本《新华字典》的文字量。

“价格屠夫”幻方量化直接拉开了大模型价格战的序幕。一位开发者称,在字节跳动豆包的发布会现场,当降价的消息一宣布,掌声雷动。

5月21日,阿里云和百度在前后相差不到4小时内都宣布降价,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。号称价格不能决定模型好坏的百度宣布,文心大模型两款主力大模型 ERNIE Speed 和 ERNIE Lite 直接全面免费。

亏本甩卖抢份额,“百模大战”分水岭?

百度集团执行副总裁、百度智能云事业群总裁沈抖解释了文心系列主力大模型免费的原因,“其实我们决定免费的原因特别朴素,就是希望大家别再天天拉表格比价格了,有这个时间,不如去卷场景、卷应用。”

动辄90%的降价幅度,看似比当时的外卖、网约车大战还热闹。百度和阿里都表示模型价格的大规模下降是由于技术的突破,不过,开发者可能并没有这么乐观。

一位开发者向Tech星球分享了自己统计的国内大模型产品分类,事实上,降价的大模型多为以聊天/内容生成的文本大模型,而高性能及图像识别、语音识别等垂类的多模态模型并没有调整价格。

比如,阿里此次降价的只涉及通义千问大语言模型和通义千问开源模型,但通义千问 VL 视觉理解大模型、Sambert 语音合成模型、Paraformer 语音识别模型等垂类模型都没有降价。

风平智能创始人林洪祥表示,通义千问只是换了一个收费规则,他只针对文档训练,需要把文档切片、转向量存储和匹配,然后把用户的问题和匹配到的相关段落一起给到大模型,最后回答。但整个过程不是每次都依赖大模型大参数推理,效果不够好。百度免费的两款大模型,回复速度够快,但不能联网,指令遵循也不行,不能角色扮演,虽然免费,但是效果不好。

包括林洪祥在内的不少创业者和开发者认为,这次降价的营销意义大于实际意义。仔细一看,不难发现,很多企业降价的产品都不是其最主流产品,比如,DeepSeek-V2是比肩GPT-4-Turbo的产品,但智谱降价的产品是GLM-3-Turbo,其主力模型GLM4并未降价。

抢占市场

创业公司们参与价格战的并不多。

“降得最猛的都是有云服务的大公司,通过大模型来获取云客户,羊毛出在猪身上,降得起。大模型创业公司没有这样的生态,必须另寻商业模式”,猎豹移动董事长兼CEO傅盛称。

大模型确实为云服务厂商带来了新的机会。以百度为例,其智能云业务已经实现了连续盈利,第四季度财报电话会上李彦宏透露,其中大模型为云业务带来约6.56亿元增量收入(智能云总收入84亿),生成式AI和基础模型的收入占AI云收入的8%。

“To B市场有限”,是大部分从业者的心声。百川智能创始王小川最近在接受采访时表示,如果只是学习OpenAI,有个模型,做API的服务,对于创业公司来说,在国内是走不通的。

一方面是因为在国内的商业环境里,To B的市场比ToC小十倍,To B传统公司确实做得更大。可以预见到API这块大厂肯定来卷,这都是他们的射程范围内的。

不少从业者认为,降价其实是为了抢占市场份额。他们希望吸引更多开发者来加入,从而开发出繁荣的应用。

根据Questmobile数据,中国的四款主要AI应用在2024年3月底的总日活跃用户(DAU)达到了800万,而去年8月底仅100万。其中最强大的豆包日活跃用户(DAU)达到了约370万。

不过,这些日活甚至比不上一个腰部互联网公司产品的日活跃用户。想要成为超级应用,规模还要提高两个数量级。

不被广泛接纳,只是问题之一。猎豹移动董事长兼CEO、猎户星空董事长傅盛称,“现在各个大模型App基本都是免费的,本质上是各个大模型App用户量涨不动了,包括OpenAl。最近有些大模型App推广费用奇高,ROI(投入产出比)算不过来……必须让更多的开发者参与进来,开发出应用让用户更方便地使用”。

一位在国内两家大厂都工作过的大模型研发人员告诉Tech星球,目前聊天对话类大模型投放的CPA(Cost per Action,获取一个用户的费用)是十块多,如果不收费,大模型运行的显卡成本也十分高。100万用户需要的显卡,一个月百万量级。

“但大模型不止显卡成本,如果都算上,一年的成本有几个亿”,他补充道。一位在字节跳动做C端大模型产品的员工告诉Tech星球,C端产品付费率太低了,推广很难。但如果不收费,用的越多,亏的越多。

光卷价格没有意义?

百度创始人李彦宏曾经多次在不同场合坦言,大模型的进展对大多数人而言不是机会,卷AI原生应用才有价值。

过去移动互联网的发展也已经证明,当运营商的网络资费,云服务厂商的成本大幅下降之后,才逐渐长出了一个个用户数过14亿的超级应用。

一位开发者称,原来的价格根本没法支撑To C应用,只能做对价格不敏感的To B应用。原来的价格,如果做一个每天每个活跃用户交互50次的To C应用,每个用户成本一天就2-3块,而To B根本没有多少训练量。

王小川认为,免费之后,整个To B市场会繁荣的更快,因为大家更愿意尝试使用这个模型,价值空间是有的,但尾部公司会退出这个赛道。“涨潮退潮最后才会有珍珠,但一定有它的一种泡沫在这里,会加速泡沫周期,也让它变得更加繁荣,这是商业里面必然出现的一个事情。”

但这并不意味着,眼下的降价就可以带来应用的繁荣。一位AIGC行业创业者称,国内大模型吹牛可以,但关键时刻就会掉链子,即便降价,他还是选择在LLM上研发。免费或者降价多的都不支持高并发,但通常大客户都要求能支持。

这意味着,想要超级应用大模型需要持续降低成本,现有的降价模型很可能无法满足需求。当然,仅有价格优势,技术不过关,也不行。

一位AIGC从业者如此形容当下的大模型行业:感觉只是跑了跑分,没明白用在哪里。这可能是To C应用没有爆发的另一个原因。

但好消息是,创新工场董事长、零一万物CEO李开复认为,在一定程度上,整个行业每年降低10倍推理成本,这是可以期待的,而且是必然也应该发生的。

大公司还好,对于创业者来说,他们必须度过艰难且漫长的技术攻坚期。

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年6月4日
Next 2024年6月4日

相关推荐