谈到大模型,你是不是也有以下疑问?
-几年前谷歌AlphaGo下围棋战胜人类冠军整挺轰动,不过现在也没啥声儿了。大模型会不会也是这个下场?
-ChatGPT爆红之后,国内一夜之间冒出许多大模型,上演百模大战。这些大模型靠谱吗?我们需要这么多吗?
-大模型也火了一年多了,到底会给我们带来什么改变?普通人的生活中为何感受不到生成式AI?
带着这些疑问,小壹哥听了上周六李彦宏在极客公园的一场对话。李彦宏把这些问题都解答得明明白白。
讲到AlphaGo与大模型的区别。他说,AI曾诞生一波一波让很多人兴奋的浪潮,比如AlphaGo和人脸识别。但它们都缺乏通用性,需要针对各种场景单独开发,但大模型具备通用性,业内专业术语叫“智能涌现”,简单来说,就是更加聪明,即便没有教过它,它也能自学成才。这是过去70年从来没有过的事情,所以它是完全不一样的机会。
讲到百模大战,他说,“好几百个基础模型是对社会资源巨大的浪费,尤其我们的算力还受限制的情况下”。
40分钟的对话过程中,李彦宏通俗易懂地解答了许多类似上述问题,让普通人也能听得懂。当然,对于大模型领域的创业者、投资者等业内人士来说,李彦宏的讲话更有参考价值,他直接给大模型的创业、投资划清了方向:大模型大力出奇迹已过时,AI原生应用才能培育AI“独角兽”。
01 三个关键逻辑,导致大模型投资趋冷?
年初,前美团联合创始人王慧文朋友圈发文:“我的人工智能宣言,5000 万美元,带资进组,求组队。”生动演绎了大模型的火爆。
据央视报道,从去年到现在,国内已经发生接近100起的大模型行业的融资案例。2023年这个行业新增投入大概在150亿元到200亿元。
不过,市场上,大模型投资遇冷的消息不断传出,大模型与创投的蜜月期即将结束。对此,李彦宏剖析了个中缘由。
第一层逻辑是,开发好用、可用的大模型很贵,贵体现在成本和技术壁垒两方面。
在王慧文高调宣布进场时,就曾被海通证券研究所科技产业链负责人郑宏达嘲笑:“5000 万美元,够干什么的?大模型训练一次就花500万美元,训练10次?”事实上,大模型训练成本比这更高。芯片咨询公司SemiAnalysis曾爆料,如果用H100训练GPT-4,单次成本为2150 万美元;用A100训练,单次训练成本约为6300万美元。
OpenAI不是靠新算法,而是用足够多的算力卡,足够多的数据去训练,才跑出来。有人调侃,全美国所有的大学的算力卡加起来也训练不出GPT3.5来。而截至目前,百度也已在人工智能的芯片层、框架层、模型层、应用层等,投入差不多1500亿元。这是时间、资金、技术的多重投入。那么,短时间内,靠巨额投入能否“大力出奇迹”?
在李彦宏看来,大模型“大力出奇迹”更多的是在大模型从0到1的探索过程。现在已经过时,而且正走向其对立面,即不是花钱越多越好,而是花小钱办大事的问题。
这就引申出第二层逻辑:商业竞争的规律是谁效率高谁胜出。换句话说,投资者看中的是,同样效果下,成本是不是更低?或者同样成本下,效果是不是更好?
李彦宏以百度文库自动生成PPT举例。从3月份发布算起,半年时间内,百度将推理成本降至最初的1%。换句话说,对文心大模型的调用从1天一万次上升至100万次,同样的成本,带来的效果是百倍的增长。
如何实现呢?百度在芯片层、框架层、模型层、应用层的充分布局,可以做到端到端优化。最初自动生成PPT,调用文心大模型的次数太高、算力付不起。百度基于应用层需求优化文心大模型,再基于文心大模型的需求优化飞桨框架,再优化芯片,一步步实现端到端优化。
当头部企业已经进行到效率比拼阶段,还停留在“大力出奇迹”阶段的公司,又如何会被投资人看上?
第三个关键逻辑是:投钱的基础是看有没有收益,而大模型本身并不直接产生价值。这也是投资的底层逻辑。
要投大模型,就要看它能不能赚钱,能不能赚钱,要看它是不是够好。对于大模型好坏的评估,是影响投资决策的关键。在李彦宏看来,目前很多做大模型的公司都不清楚自己做得好不好,而是靠跑分和第三方评测。
之所以这样,根源在于对大模型价值的评估标准跑偏。在他看来,评估大模型的好坏,要将其置于具体技术场景、应用场景中才能评判,具体来说,应以AI原生应用作为评估依据。
02 大模型真正的价值在于原生应用
所有技术的出发点,都是为了解决现实问题。就像蒸汽机解决了大工业生产时代的交通运输动力不足的问题;5G解决了万物互联时代信息传输时效问题……然而,大模型却是一个另类,似乎大家并不太在乎它能解决什么实际问题。
李彦宏当天表示:“过去一年的时间,我看到媒体、社会、公众主要的兴奋点还在基础模型上,没有转到AI原生应用上,这使我多多少少有点着急。最近几次公开发言,也包括公司内部讲话我都在不停的强调,一定要去卷AI的原生应用,要把这个东西做出来了,大模型才有价值。”
他认为,在基础模型之上要有千千万万,甚至数以百万计的AI原生应用,才能体现出大模型的价值。他以移动互联网时代的安卓、iOS两个系统举例。短视频、社交软件、外卖、共享出行等等,这些基于安卓、IOS诞生的各种应用,它们的价值一点不比系统本身低。所以,李彦宏强调,大模型对于绝大多数人来说都不是机会,只有极少数跟这个技术非常相关的技术人员去研究,是有价值的。“为什么大家不去认认真真花精力做原生应用。”
那么,AI原生应用如何体现价值?
首先,体现在对现有业务的直接推动,表现为收入、利润增长。
微软便是一个值得借鉴的案例,它不做大模型,但却推出现阶段最为成功的AI原生应用Copilot。今年11月1日,基于 AI 的生产力服务 Microsoft 365 Copilot正式在海外商用,为Word、Excel、PowerPoint等应用添加生成式 AI 功能,每个用户每月需要支付 30 美元的费用。
消息公布,微软股价大涨。目前,微软市值约2.8万亿美元,是OPEN AI的5倍。而且,有分析师预测,Microsoft 365 Copilot的推出,到2026年可能会为微软增加多达100亿美元的年收入。
原本业务经过生成式AI的改造,成为公司新的增长点。
其次,AI原生应用本身也是一种创业方式。
不像大模型需要巨量投资和技术壁垒,AI原生应用依托于大模型开发, 就相当于基于安卓、IOS开发移动应用,难度和门槛更低,而且更容易商业化。
在移动互联网时代,涌现出大量创业公司,它们没有把目标定在推出安卓、IOS这种级别的系统,而是基于现有系统,从用户实际需求角度开发移动应用,涌现出一批新的独角兽企业、大公司。
实践也证明,AI原生应用确实更适合创业。除了前面讲到的微软案例。据投资机构a16z统计,全球范围内,图像生成、文案写作和代码编写三类AIGC产品年营收都已超过了1亿美元。这无疑是个巨大的新生市场。
03 AI原生应用将在2024年迎来爆发?
既然鼓励大家不卷大模型,卷AI原生应用。那么,企业和创业者该如何做好AI原生应用?
极客公园的活动现场,主持向李彦宏求证一个细节,“听说早期,内部有人跟你说业务要接入大模型,被你批判了。你说这不是接入,而是重构重做。我挺好奇,你为什么跟这个词较劲?”
李彦宏回答道,其实这是在跟肌肉记忆较劲。接入是最简单的,比如在搜索主页放文心一言接口就完事了。但这种事不需要动脑筋的,价值最低。在他看来,做原生AI应用搞清楚几个基本问题,比如公司业务到底跟大模型有什么关系?大模型能不能带来DAU、留存率、营收、利润等关键指标的增长。如果不能带来增长,那可能就不是真正的AI原生应用。
听完李彦宏的整场对话,小壹哥觉得,2024年将是AI原生应用的爆发年份。
从行业大环境看,对大模型投资热度的降低,会倒逼行业重新思考大模型的价值,最终回归到李彦宏所说的应用层面,这将给AI原生应用领域带来更多人才、更多资源。
从AI原生应用开发本身来看,其难度也在降低。李彦宏举例公司内部的案例,以前1名产品经理要对接几名研发人员,现在只需对接1人,或者前期测试不需要研发介入。这是因为,基于文心大模型,百度的产品经理自己上传一个东西即可做到,与之前应用开发很不同的地方。
另一方面,百度也在将AI原生应用能力外化,带动更多人开发AI原生应用。今年10月的百度世界大会上,百度推出首个AI原生应用商店,希望将其打造为连接AI原生应用供应商和需求方的平台,帮助AI原生应用推向市场、实现商业化、激发更大的需求。
除此之外,百度智能云推出的AI加速器,就包括AI原生应用开发工作台,将各种应用的常见模式、工具、流程,沉淀在工作台上,让开发者不用再为研发过程发愁。百度还提出AI原生应用——Comate智能编程助手,提高应用开发过程的编程效率。
从市场发展阶段看,随着微软、百度等头部企业在AI原生应用的布局,已逐步完成市场教育,AI原生应用将卷起来。今年10月,百度一口气发布十余款AI原生应用。百度第三季度财报显示,经过AI原生化重构的百度文库,智能文本、智能PPT生成和编辑,智能问答与总结、智能脑暴和大纲写作等AI新功能使用次数破2亿,带动用户付费率明显提升。
百度AI原生应用的推出,将进一步激发用户对AI原生应用的需求,同时也让业内看到,AI原生应用的商业价值和未来潜力。以上种种因素汇聚,有望带来2023年AI原生应用的爆发。
李彦宏也表示,新的创业公司做出三五个超级AI原生应用,做出几百个、几千个极具价值的垂类应用,都是非常可能的。至于超级应用什么时候出来,在哪个领域出来,还有待大家多尝试、多努力。