大模型打价格战,李开复自比特斯拉:它可不会跟风降价

1Token到底等于多少个汉字,会根据模型处理文字方式不同有所改变,有兴趣测试一下的可以到OpenAI这个页面试试:

了解这些基本信息后,我们再来看看大家是怎么打价格战的。

5月21日,阿里也降低了大模型价格,通义千问GPT-4级主力模型Qwen-Long,API输入价1元可以买200万tokens。

不管怎么说,便宜的大模型对于用户和开发者而言肯定是个好事,对于平常就正常用用大模型的普通人来说,这价格到底多少可能没什么意义。

作为一个普通消费者,硅基君最喜欢看价格战了。

谁不喜欢一块钱打车,九毛九的黄焖鸡外卖?哪像现在薅点平台羊毛,还得到各个微信群里拉下老脸跪求兄弟姐妹们点一下。

这会,虽然和咱们日常生活有点远,大模型的价格战这两天算正式开打了。

自从上星期字节在发布会上喊出“豆包主力模型的定价比行业便宜了99.3%”。这事就和莱克星顿的枪声一样一发不可收拾,有头有脸的AI公司全都跳出来高喊:俺也一样!

截至发稿,喊出降价的大模型包括智谱、腾讯、阿里、百度、科大讯飞。

唯独有位清流,零一万物的李开复博士说:“目前不打算降低YI系列模型的API价格。”并认为目前零一万物给的性能、性价比都很高了。

这话要咱说多少有点不厚道,总不能那么多降价的大模型都是性能不够价格来凑

对于大模型价格战这事,李开复博士还说了:“就像特斯拉,不会因为别的牌子车比它卖得便宜,它也要来降价。”

且不提特斯拉这些年调了多少次价,维权的车主拉了多少群,就零一万物行业地位对标特斯拉这事,咱要不还是再想想?

咱们先简单说说大模型的价格到底是什么。

通常来说,AI公司训练出自己的闭源大模型(开源当然不用花钱买)后,会出售给其它想用的个人或者公司。

相较于过去的出售软件,比如WPS或者Office这种一次买断制付费,大模型则是在使用过程中,按使用量收费。

这种收费方式和电信运营商的“流量包”类似,计费单位则从流量的MB和GB,变成了Tokens。

流量分上传和下载两部分,大模型也有输入和输出两个环节,不过不同于流量上传下载是同一个价格,大模型由于输出的过程有一个“推理”的环节,所以通常价格会比输入更高。

同样也是由于推理这一过程,性能更强的模型处理每Token的成本也就越高,因此模型越大,通常定价越贵。

1Token到底等于多少个汉字,会根据模型处理文字方式不同有所改变,有兴趣测试一下的可以到OpenAI这个页面试试:

了解这些基本信息后,我们再来看看大家是怎么打价格战的。

智谱AI最早加入战局,早在5月11日宣布大幅降价,新注册用户获得的额度从500万tokens提升至2500万tokens,GLM-3 Turbo模型中,用户1元可以买100万tokens。

字节跳动在15号发布会上,宣布降价,相当于1元可以买125万的豆包pro32k模型tokens。

5月21日,阿里也降低了大模型价格,通义千问GPT-4级主力模型Qwen-Long,API输入价1元可以买200万tokens。

而百度随后出招,直接宣布文心大模型两大主力模型全面免费,立即生效。

看看这几家的操作,火药味非常浓了。

而且,百度怕不是忘了自己说过的话了:5月15日,百度曾发布公告称“使用大模型不应该只看价格,更要看综合效果”,还强调“闭源大模型+公有云”比“开源大模型”性能更好、成本更低。

然后,今天下午,讯飞宣布星火Lite API永久免费开放,星火Pro/Max API低至0.21元/万tokens。

今天傍晚,腾讯混元大模型也宣布全面降价,lite版免费。

这些降价公告小数点实在太多,咱们统一换算一下,看看各家一元能买多少万tokens。

不管怎么说,便宜的大模型对于用户和开发者而言肯定是个好事,对于平常就正常用用大模型的普通人来说,这价格到底多少可能没什么意义。

对于AI应用开发者来说,Tokens的价格就是压在他们身上最沉重的成本大山。

几个月前有个叫哄哄模拟器的应用一夜爆火,用户在开发者意料之外疯狂涌入,据网传截图称“一早上就两千美金了。”

自掏腰包哪里扛得住这样烧钱?

至于各家公司会因此烧掉多少钱,想来抢市场阶段大家也不在意。

不过咱们可以看看从技术角度是如何实现降低模型调用价格的。

其实最早大幅度降价的,是著名量化私募,幻方旗下的AI公司Deepseek,他们在5月初就宣布降价,1元能买1百万输入Tokens。并且在一篇论文中详述了自己是如何降低大模型训练成本的,感兴趣的读者可以自行去品一下。

还有一种观点,就是大模型之所以会打价格战,是因为陷入了同质化竞争。

诚然,外卖、快递、网约车、社区团购甚至如今的新能源车等价格战火热的行业,或多或少都是同质化竞争导致的,大模型也可能是当前卷性能带来的收益越来越低。

在《LLMs正达到收益递减的证据——及其可能意味着什么》一文中,作者提到“大模型在性能提升方面可能已达到收益递减的临界点”

作者以OpenAI为例,认为:“从GPT-2到GPT-3的巨大飞跃。从GPT-3到GPT-4的巨大飞跃……GPT-4到GPT-4 Turbo就没有那么多了。”

假设大模型的性能发展真的要迎来一面墙,对于大模型公司来说,如何抢下用户是现阶段最重要的一步。

这活大家熟得很,阿里百度字节腾讯,哪个不是从抢用户的血水里走出来的。

正如彭博分析师指出的那样:“中国在AI盈利方面将面临着漫长的道路,行业洗牌可能会推动该行业盈利。”

表面上是在说中国的大模型价格战会推动行业洗牌,是个好事,但他后面还补了一句:“尽管在一个资本过剩的行业中,这种情况似乎不太可能很快发生。”

本文来自微信公众号:新硅NewGeek(ID:XinguiNewgeek),作者:董道力,编辑:张泽一,视觉设计:疏睿

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年5月22日
Next 2024年5月23日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日