大模型价格战:大厂烧钱狂飙,小厂如何抉择

图1:近期国内厂商大模型价格战情况

大厂为何争相降价

多家企业在宣布大模型降价时,都提到了技术进步带来的成本下降。

使用者更看重性能

尽管价格战打得火热,但一些使用大模型的业内人士告诉经济观察报,与价格相比,他们更看重大模型的性能。

上述互联网大厂人士还称,在大模型初创公司中,他比较看好智谱AI这类在B端场景里专注行业赋能、并在模型层继续向上走的厂商,以及像Mini。

本文来自微信公众号:经济观察报 (ID:eeo-com-cn),作者:任晓宁、钱玉娟、周悦,头图来自:视觉中国

又有玩家加入了大模型价格战。

5月22日,腾讯云宣布大幅下调旗下主力大模型混元系列的价格。当天,科大讯飞也宣布降价,它的策略和腾讯相似,轻量模型免费,高性能模型降价。

大模型(LLM,Large Language Model),即具有大规模参数和复杂计算结构的机器学习模型,代表着当前AI技术的主流方向,也是国内外互联网公司重点布局的AI产品。

自5月15日字节跳动宣布旗下豆包大模型价格“以厘计费”以来,这场大模型价格战愈演愈烈,阿里巴巴、百度等国内互联网大厂相继选择参战。

与之形成鲜明对比的是,多家大模型初创公司选择了不降价的策略。截至发稿,除智谱AI以外,其他大模型明星初创公司——百川智能、Minimax、月之暗面、零一万物并没有调整价格。同时,智谱AI的大模型价格在下调后仍高于大厂。

国金证券互联网传媒首席分析师陈泽敏告诉经济观察报,这些公司此次选择大幅降价,是看到了大模型第一性原理——尺度定律(Scaling Laws)的释放,未来算力成本可能会更便宜。所以他们现在提前降价,先把自己的生态搭建起来。

谈及大模型初创公司面对价格战的不同选择,陈泽敏说,降价或者不降价都可以理解。像智谱AI这种在B端(企业客户)有优势的厂商,就没必要彻底参与价格战。

图1:近期国内厂商大模型价格战情况


大厂为何争相降价

多家企业在宣布大模型降价时,都提到了技术进步带来的成本下降。

百度董事长兼首席执行官李彦宏曾表示,与一年前相比,百度旗下文心大模型的推理性能提升了105倍,推理成本则降到了原来的1%。字节跳动旗下火山引擎总裁谭待也提到,该公司可以通过混合专家模型(MoE)、分布式推理等技术手段,优化豆包大模型的推理成本,不会走用亏损换收入的道路。

创新奇智是一家企业级AI解决方案供应商。该公司首席技术官张发恩认为,技术进步的确推动了大模型推理成本的下降。一方面,得益于芯片技术的不断突破,单位算力对应的成本在下降。“打个比方,原来(购买)单位算力需要1块钱,现在5毛钱就能买到。”另一方面,现在大模型的量化压缩技术也越来越先进。以前运行一个80亿参数的大模型,一般需要16GB的显存容量,现在只需要4GB。

不过,张发恩强调,技术进步可帮助推理成本每年下降到原来的1/2左右,大模型的降价幅度却是以10倍来计算的。技术进步不是游戏规则改变的主要原因,商业决策才是本次降价的根本原因。企业希望尽快获得更多客户,占据更多市场份额,未来业务规模做大了,再去想办法挣其他的钱。他还认为,当前大模型技术的场景渗透率还很低,价格战并不明智。

经济观察报注意到,目前降低的只是调用大模型应用程序编程接口(API)的费用。与这一费用相比,客户使用云服务后,付费环节更多、付费额度更高。

以百度云的千帆大模型平台为例,虽然有两款百度旗下的大模型可以免费调用,但是模型部署、精调、评估、数据管理、插件调用等环节都需要按量付费。以最基础的模型部署为例,客户租赁5天私有资源池至少需要7000元。

阿里云在大模型降价后的第二天,就推出了上云优惠的组合拳,包括首次推出5亿元算力补贴,以及为200余款云产品制定折扣价,这些产品包括覆盖显卡(GPU)云服务器、大模型训练与推理服务等产品。

AI智能体(AI Agent)平台公司澜码科技的创始人周健认为,国产大模型正处在“烧钱换数据,竞争优质数据”的阶段。他称,大模型厂商实际上在烧钱进行大量的投入,多数厂商不太考虑定价能否覆盖住成本或带来利润。从商业策略层面看,现在大模型厂商展开降价的主要目的是收集更多样的数据。“竞相降价的现象,不能说是一个噱头,(厂商)互相之间在竞争数据,他们希望能够有更多的开发者基于各自的大模型去开发应用。”周健说。

使用者更看重性能

尽管价格战打得火热,但一些使用大模型的业内人士告诉经济观察报,与价格相比,他们更看重大模型的性能。

齐心集团是一家企业对企业(B2B)办公物资服务和软件即服务(SaaS)云视频企业。该公司的首席技术官于斌平说,他的团队从去年5月开始正式使用大模型,然后不断地对百度文心大模型和GPT模型(美国AI公司OpenAI旗下的大模型)进行调试,会调用大模型的API,也会在云上做自己的预训练和精调。

在将模型的准确率从80%多调试到90%多的过程中,于斌平发现,越往后调,越能发现模型能力存在的差异。在常见的聊天、文档摘要、翻译、智能客服这些功能上,大模型的推理、泛化能力可能差不多。但齐心集团需要将大模型应用于生产场景,对它的实际推理能力要求比较高。

从AI三要素来看,于斌平也认为大厂的大模型有较大优势。他说,在算法上,厂商的差异不大,大家都有一些好的工程师。在算力上,大厂投入较大,具备优势。在数据上,因为训练大模型需要公共数据,做搜索业务的百度,优势明显。

于斌平称,他的团队使用的百度文心大模型4.0,并不在此次降价的范围内。但即便有厂商推出更便宜的大模型,他们也不打算更换,这不仅是由于文心大模型4.0足够强大,也是因为他们在前期调试大模型的过程中付出了太多精力。

在为澜码科技选取大模型时,周健会考虑价格因素,但他更关注模型的质量、推理能力、参数和准确率。“在客户算力有限的情况下,不同的参数、准确率,决定了我们能够处理的项目规模。”周健说,不同的模型还会形成不同的客单价。此外,模型的连续性也会影响应用开发,例如更新速度是否足够快,都在一定程度上对应用的能力、竞争力以及能否满足市场需求有影响。

在周健看来,国内大模型厂商降价,对产业内的应用开发商带来了直接影响。“过去成本高昂,开发商需要考虑token(大模型文本中的最小单位)的费用,许多尝试受到限制。”大模型价格一旦降至“以厘计费”,甚至免费,应用开发商的成本曲线将大幅下降,这将促使他们更容易进行开发、试错,从而找到一些适用于大模型时代的AI原生应用。

初创公司要找对场景

零一万物创始人李开复和百川智能创始人王小川都对大模型初创公司加入价格战持否定态度。他们认为成本并不是客户选择大模型的唯一因素,企业和开发者也会综合考虑性能、市场、安全、需求等因素。

李开复认为大模型的性能优势是关键。他预计推理成本将会以每年10倍的幅度降低,但是疯狂降价是双输,他不会靠贴钱、赔钱去做生意。对需要最好模型的客户来说,购买100万个tokens的资源包,支付几元或者十几元的费用差别不大。王小川也表示不会参与价格战,他判断大厂降价实质是云厂商的新战争。大模型初创公司没有云服务的生态优势,不需要和大厂竞争价格,也不需要和其他中小企业竞争垂类赛道应用,而是要做一款超级应用。

一位与多家大模型厂商有合作的互联网大厂人士称,缺少落地场景是很多大模型厂商存在的通病。当大厂投入补贴来抢用户时,那些缺少模型差异化能力又没有商业化模式的大模型初创公司会被直接“卷死”。

据上述互联网大厂人士透露,某家大模型明星初创公司旗下的C端(个人用户)产品,每计算一次的成本高达一百多元。他并不怀疑该产品在某些细分场景的能力表现,但综合来看,它的能力并没有明显地超越阿里通义千问模型、百度文心大模型,甚至它还缺少可验证商业化的场景。当阿里、百度等大厂拉响大模型低价警报时,“它还不考虑生存的话,下一轮融资都没有了”。

上述互联网大厂人士还称,在大模型初创公司中,他比较看好智谱AI这类在B端场景里专注行业赋能、并在模型层继续向上走的厂商,以及像Mini Max这种已经找到了属于自己的C端场景的厂商,这些商业模式清晰的公司才是能长久生存的。


本文来自微信公众号:经济观察报 (ID:eeo-com-cn),作者:任晓宁、钱玉娟、周悦

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年5月27日
Next 2024年5月27日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日