让AI大模型的价格战来得再猛烈些吧

应用开发者单向外流,进而把隐藏在水下的开发者“激”出来,用国内模型的。但考量到一年到一年半之前,中国的大模型是荒漠期,也就两三款模型,现在到了抢夺开发者的关键阶段,好像也没必要亦步亦趋按照人家当初的节奏降价,反正早晚是要降的,一次性探底得了。还有一个关键因素,是很多人都提到的,大模型推理(reasoning)成本的下降。95%,考虑到模型的训练成本、硬件消耗成本和计算环境等成本,虽然不能说它一定是个赚钱的生意,但它从长期来看,至少不是一个盲目烧钱的环节。

1. 讲真,两周之前,我也是对国内大语言模型已经开卷的 API 价格战有那么一点儿不安的。GenAI 在中国现在本来就没啥商业模式, API 还不赶紧卖俩子儿么。但随着价格战愈打愈烈,我现在觉得还挺好的。

2. 这一波旨在抢夺国内原生 AI 应用开发者的 API 价格战,目测是最不差钱的 Deepseek 挑起来的,百万 tokens 输入一块,输出两块,智谱第一个不服下场,价格拉到一块钱200万 tokens,面壁智能的小钢炮 MiniCPM 马上跟进一个零元购。再然后大厂跟进,字节的豆包,百度的文心,阿里云的通义,价格基本都在百万 token 八毛钱到一块钱。

3. 也就是说,今天一个开发者用 100 万 tokens 能生成 5本 新华字典文字量的花费,大概相当于一个退休老人在北京搭乘 300 路公交沿着三环绕一圈儿的开销。而国内主流大模型 API 的均价,已经只相当于 OpenAI GPT-4o 降价之后的 1/35(对,OpenAI也降价了,而且半年来三次了)

4. 这种不想往下过了的玩儿法,怎么都难说是理性的。但是,有没有可能,它还真的就是理性的?

5. API 的用户不是普通的消费者,而是开发者。大语言模型的 API 用户,是从事原生 AI 应用开发的开发者。

6. 这批 AI 应用开发者,在美国已经到处都是了。周日在斯坦福参加一个demo day,10多个项目,从种子阶段到 B 轮,涵盖了 AI+ 生物制药、家居设计、服饰推荐配送、保险、法律、视频剪辑、游戏画面编辑等各个领域,而这仅是美国每天正在活跃着的 AI 开发者的一个极小切片。

7. 但是在中国,你太容易在各式各样的黑客马拉松上看见同一拨人组队,在用国内各个基座模型提供的免费 tokens “打比赛”,idea 频繁切换,以“赢”,而不是成立一家可以融资获客的 AI 创业公司为目的。而真正在开发原生 AI 应用且能融到钱的创业公司,很多都具备独立的模型能力。

8. 也就是说,中国现在尚不存在一大批以 AI 应用初创企业面目出现的 AI 开发者。即便有,可能第一步还是买 GPT-4 Turbo或 Claude 2 的 API,搞海外市场去了。国内 AI 应用开发者的“空心化”,是一个令人不那么愉快,但触目惊心的现实。

9. 在这种情况下,遏制 AI 应用开发者单向外流,进而把隐藏在水下的开发者“激”出来,用国内模型的 API 做一些国内的场景和应用,是必须要上一些手段的。最有效的手段当然就是降低大家在开发中“试错”的成本。

10. 讲句不好听的,国内有几个投资人真的挺认真地在看 AI 原生应用的?(这里致敬一下尽管我经常不同意他很多观点的朱啸虎老师)既然拿不到融资,那就用无限逼近零的成本试错,降低创业的成本,做点东西出来,别光盯着出海,推理成本比海外低 30 多倍,让中国的原生 AI 应用出几个水花,出几个创业公司,激活市场,再吸引不见兔子不撒鹰的国内风险投资机构。要不然,大家都白干。

11. 目前最流行的说法是:中国大模型的“同质化”是卷起 API 价格战的重要原因,既然看不出谁更好,那只能看谁的价格更低。这当然有道理,毕竟全世界只有一个 OpenAI 在最前头跑。可是 Open AI 过去半年已经两次下降 API 的价格了啊,GPT-4 Turbo比 GPT-4 的API 价格砍半,GPT-4o 的 API 比 GPT-4 Turbo 的价格又砍半,年初 GPT-3.5 Turbo 也降了一次价——奥特曼老师不折不扣践行了 API 三个月降价一次的承诺。

12. 这又是因为啥?大多数开发者调用的都是 GPT 家族最先进模型的 API,难道是这个也卖不动了么?还是说,大模型 API 的定价本身就在一个无限向下的动态走势中?

13. 上周三在旧金山参加 AWS 和 Hubspot 主办的一场企业级 AI 的活动上,Snowflake 的现任 CEO Sridhar Ramaswamy 对企业开发自己的 AI 应用发表了看法,他说:“企业的 AI 开发应该更关注加速自身价值的实现,因为每个人都能获得那些模型和它们的 API(原话:You have to think about how AI could really accelerate the valuation because everyone could reach out APIs and Models)。”

14. Snowflake 是一家给企业提供大量工具包以接入各类大模型和它们的 API,方便企业搭建 AI 应用的企业级云数据库的公司,它接触的客户是大量的,见到的企业级 AI 实践的案例是丰富的。而它的 CEO(此前是 AI搜索引擎 Neeva 的创始人)认为:包括 OpenAI 在内的基础模型和它们提供的 API,都只是基础服务,都决定不了一家企业 AI 产品落地的结果,能决定结果的只有企业自己。

15. 如果这个原理成立, GPT 的 API 也不是“一接就灵”,即便是世界上最先进的模型的泛化能力,也不足以彻底决定一款独立 AI 产品的优势的话,OpenAI 的价格策略就合理多了。很多人可能没注意到,自从 ChatGPT 问世以来,GPT 家族 API 价格已经降 90 %了。

16. 最大的差别是,人家 OpenAI 一年半降价90%,Anthropic 一年降了60%,而我们国内的大模型,一夜之间降价 95% 以上。但考量到一年到一年半之前,中国的大模型是荒漠期,也就两三款模型,现在到了抢夺开发者的关键阶段,好像也没必要亦步亦趋按照人家当初的节奏降价,反正早晚是要降的,一次性探底得了。

17. 还有一个关键因素,是很多人都提到的,大模型推理(reasoning)成本的下降。IDC 的数据预计到了 2026 年,云端部署的算力,推理将占用 62.2% 的资源。这意味着推理将成为围绕着大模型生态链最重要的计算行为。不是每个公司都需要训练自己的模型,但所有 AI 应用都需要大量的推理。计算资源向推理的持续倾斜,是 AI 应用真正市场化的一步,海量批处理推理需求、算法优化、硬件加速和负载资源均衡调度都让推理成本以几何级的速度降低。

18. 李彦宏老师上个月披露过文心一言推理成本的变化:一年降低了 99%。Deepseek 这么死命打价格战,API 居然也还能赚到钱,也是因为成本在一个无限趋近于最低的轨道上持续下滑。通义千问降价 97%,背后是阿里云的“公共云+大模型 API”带来的边际成本持续走低。如果成本降低了 99%,价格下降个 95%,考虑到模型的训练成本、硬件消耗成本和计算环境等成本,虽然不能说它一定是个赚钱的生意,但它从长期来看,至少不是一个盲目烧钱的环节。

19. 再扔一个暴论:API 就不应该是大模型商业模式的一部分。基于 iOS 和 Android 搞应用程序开发,难道是要给开放接口和 SDK 付费的么?

20. 当然不是,应用商店分成是苹果和谷歌获利的来源,它现在被比喻成一种“税”。那为什么大模型的 API 收钱呢?你可以说是因为它的训练和推理太烧钱了,但更根本的原因,还是没有太多开发者通过原生的 AI 应用赚到钱。以及,现在的 AI 应用也没有太成规模的商业模式。从更长期来看,AI 应用开发可以建构起更成熟的商业模式,然后跟新一代的 AI 平台,也就是基座模型的提供者分钱。

21. 有了这个前提,别说 API 不该收钱,甚至模型产品都不该收钱。QQ 在2000年服务器都租不起了,想收费,用户抬腿就走人,好在第二年腾讯就绑定了移动梦网,搞起了 SP,三年上市,变成最赚钱的中国互联网公司直到今天。历史不会百分之百复现,但不无值得借鉴之处。

22. API 收费,有可能是一种被创造出来的,为了证明自己有商业模式,而成为了一种所谓的商业模式的商业模式。至少,它不该成为大模型平台最主要的商业模式。

23. 从这个角度看,我们觉得大模型的价格战可以来得再猛烈一点,如果它不是蒙眼狂奔的话。

24. 继续降,till zero cost。

    本文来自微信公众号:硅基立场(ID:gh_1b4c629a6dbd),作者:骆轶航

    声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
    Like (0)
    Previous 2024年5月23日
    Next 2024年5月23日

    相关推荐

    • 水温80度:AI行业真假繁荣的临界点

      我们从来没拥有过这么成功的AI主导的产品。

      (这种分析统计并不那么准,但大致数量级是差不多的)

      这两个产品碰巧可以用来比较有两个原因:

      一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

      蓝海的海峡

      未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

      未来科技 2024年6月5日
    • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

      美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

      因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

      等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

      大模型连崩原因猜想,谷歌躺赢流量激增6成

      GPT归位,人们的工作终于又恢复了秩序。

      未来科技 2024年6月5日
    • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

      ChatGPT一天宕机两次

      谷歌Gemini搜索量激增近60%

      ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

      过去24小时内提交的关于OpenAI宕机的问题报告

      图片来源:Downdetector

      ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

      未来科技 2024年6月5日
    • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

      接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

      而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

      未来科技 2024年6月5日
    • 深度对话苹果iPad团队:玻璃的传承与演变

      iPad最为原始的外观专利

      没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

      2010年发布的初代iPad

      好在乔布斯的遗志,并未被iPad团队遗忘。

      初代iPad宣传片画面

      乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

      iPad进化的底色

      苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

      未来科技 2024年6月5日
    • 底层逻辑未通,影视业的AI革命正在褪色…

      GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

      华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

      首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

      03、

      如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

      但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

      未来科技 2024年6月5日
    • KAN会引起大模型的范式转变吗?

      “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

      KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

      KAN与MLP的对照表:

      KAN使神经元之间的非线性转变更加细粒度和多样化。

      未来科技 2024年6月5日
    • 这个国家,也开始发芯片补贴了

      //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
      [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
      [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

      未来科技 2024年6月5日
    • 大模型的电力经济学:中国AI需要多少电力?

      这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

      未来科技 2024年6月5日
    • 你正和20万人一起接受AI面试

      原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

      以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

      未来科技 2024年6月4日