与70位企业高层交流后,我们整理出AI ToB领域大趋势

企业对GenAI的预算正在飞速增长

2023年,我们调研的数十家公司,在基础模型API、自托管和微调模型上平均每年支出达到了700万美元。企业选择开源模型的主因:控制/定制>成本 

我们惊讶的是,成本问题不是企业首要考虑因素,但却反映了领导层目前的信念,即GenAI创造的超额价值,将会远远超过其价格。

四、结语

a16z预测:到2024年底,模型API(包括微调)市场将增长到50亿美元以上(2023年预估是15亿~20亿美金),而企业支出将是其中的重要部分。

一、引言

过去一年,我们看到了GenAI(生成式AI)在ToC领域大放异彩,创造了超10亿美元的消费规模。相较之下,ToB领域还停留在由FOMO推动的1.0阶段,应用场景稀少,主要用例体现在ChatGPT的“套壳”产品们。 

如今C端渐凉,盈利堪忧。如果说Anthropic、OpenAI的低毛利是浇了盆凉水,那么Inflection被微软“生吞活剥”基本宣告C端重磅产品“聊天机器人”暂别初创企业。而且C端的数据基本握在巨头手中,小型初创企业就算解决了“钱荒”,还要经历新一轮“数据荒”,挑战巨头难如登天。 

而B端既是“生路”也是“胜路”。首先,尽管庞大的数据由大企业掌管,但不是每个企业都有能力搭建AI团队。其次,出于竞争关系,大企业不太可能将私密数据分享给巨头,而会倾向于找小企业做“中间商”。基于此,小型初创企业“数据飞轮”可以转起来——在垂直领域积累优质数据,逐渐构建技术壁垒。 

著名风投机构a16z花了几个月时间,与财富500强企业和顶尖企业的领导者进行深入交流,调查了超过70位企业决策者,以探究他们对GenAI的使用、采购和预算安排。 

结果非常惊人——在过去六个月中,这些企业对GenAI的资源投入和态度发生了显著变化。 

  • 企业将购买GenAI服务的预算增加2~5倍,推进更多生产级应用;

  • 企业倾向采购多个模型落地不同应用场景,并且愈加青睐开源模型;

  • 企业将优先落地内部应用,并对涉及敏感数据的外部应用持谨慎态度。

a16z的结论:尽管有人质疑GenAI在B端的普及性和盈利能力,但进入2024年,我们预见B端企业市场的AI规模将呈现指数级增长。

如果AI 初创公司能够深入了解客户的预算、关注点和路线图,为企业制定以 AI 为中心的战略计划,预见企业的痛点,同时从“服务至上”转向“构建可扩展产品”,就能成为新浪潮中的“弄潮儿”。 

基于以上观察,a16z将关键信息汇总为一份报告《16 Changes to the Way Enterprises Are Building and Buying Generative AI》(企业构建与购买生成式AI的16项变革)。适道对报告内容进行了编译,请安心食用。

 

一、资源配置:预算暴涨且势头持续


1. 企业对GenAI的预算正在飞速增长

2023年,我们调研的数十家公司,在基础模型API、自托管和微调模型上平均每年支出达到了700万美元。而且,几乎所有企业都对GenAI测试的初步成效表示乐观,并计划在 2024 年将预算增加2~5 倍,以推动更多工作负载转向生产环境。

2. 企业将AI投资“划进”经常性支出

2023年,企业对GenAI的支出主要出自“创新”预算和一次性买卖。然而,在2024年,许多领导者正考虑“长期付费”。仅不到25%的受访企业表示,2024年的GenAI支出还是出自“创新”预算。

我们还注意到,一些领导者开始将GenAI预算用于节省人力成本,尤其是在客服领域。如果这一势头持续,预计未来对GenAI的投资将会大幅增加。例如,有企业表示,AI客服每打一个电话能省6美元,总计可节省约90%开支。因此,企业要将GenAI投资增加8倍。

3. 衡量ROI是艺术,也是科学

目前,企业领导者主要通过由AI提高的生产力,来衡量投资回报率(ROI)。 

尽管他们主要依赖NPS(净推荐值)和客户满意度作为代理指标。但他们也在寻找更具体的衡量方法,比如:用例创收、节省成本、提升效率、提高准确性。至少在未来2~3年,提升ROI会越来越重要。 

4. 企业渴求轻量化AI部署

仅仅接入API显然不够用,但实施、维护和扩展需要高度专业化的人才,甚至仅“实施”一项就占据了2023年企业AI支出大头。

为了帮助企业快速启动、运行模型,基础模型提供商提供的专业服务通常涉及定制模型开发。同时,又因为企业内部很难找到合适的AI人才,那些能够简化企业内部GenAI开发流程的初创企业会更快地迎来巨大机遇。 

 

二、模型趋势:多元化和开源模型


1. 企业青睐多模型(Multi-model)方案

六个月前,大多数企业还在使用一种模型(通常是OpenAI),最多是两种模型。

现在,他们正在测试——甚至已经在生产环境中使用——多模型(Multi-model)

多模型方案的优点:

(1)根据不同性能、规模和成本来定制用例;

(2)避免过度依赖单一供应商;

(3)快速利用该领域快速发展的成果。由于模型排名不停变化,高管们希望整合当前最先进的闭源模型和开源模型,以获得最佳效果。

预计未来会有更多模型涌现。虽然在生产用例中,OpenAI 仍然占据主导市场份额,但从测试来看,多模型并存的局面正在形成。

2. 企业青睐开源模型(Open source) 

过去六个月中,开源模型的兴起让人惊讶。 

我们估计,在2023年的市场中,80%~90%由闭源模型(如OpenAI)占据。然而进入2024年,46%的受访企业偏好或强烈站队开源。 

另外,60%的受访企业提到,如果能够通过微调开源模型,以实现与闭源模型相当的效果,他们将会倾向使用开源模型。其中一些企业明确表示,希望开源和闭源模型的占比能达到5:5(2023年为2:8)。 

3. 企业选择开源模型的主因:控制/定制>成本 

我们惊讶的是,成本问题不是企业首要考虑因素,但却反映了领导层目前的信念,即GenAI创造的超额价值,将会远远超过其价格。一位高管表示:“获得准确的答案是值得的。” 

因此,控制(专有数据安全性、了解模型产生特定输出的原因)和定制(针对特定用例进行有效微调的能力)远比成本更重要。

4. 控制:企业担心敏感用例和数据安全

出于对监管、数据安全的顾虑,企业不愿意与闭源模型提供商共享自己的专有数据,尤其是那些将知识产权作为核心护城河的公司。一些高管通过自托管开源模型来解决问题,而其他人则优先考虑具有虚拟私有云(VPC)集成的模型。 

5. 定制:企业倾向微调开源模型,而非从0到1 

随着高质量开源模型的兴起,大多数企业不是从0开始训练自家LLM,而是使用检索增强生成(RAG)或为特定需求来微调开源模型。 

6. 云服务商依然极大影响AI 模型采购决策

2023年,许多企业出于安全考虑通过现有的云服务提供商(CSP)购买模型,2024年的情况依然如此。

这意味着CSP和首选AI模型间的关联性相当高:Azure用户更喜欢OpenAI,而Amazon用户更喜欢 Anthropic或Cohere。

如图所示,在使用API访问模型的72%企业中,超过50%的企业选择其CSP所托管的模型。(请注意,超过25%受访企业选择了自托管,可能是为了运行开源模型。)

7. 企业关注模型的差异化和创新性

即便企业将“推理能力、可靠性、易访问性”作为采用特定模型的首要因素,但他们也更加倾向于采用具有其他差异化功能的模型。

例如,多家企业将“200K上下文窗口功能”,作为此前采用Anthropic的关键原因;一些企业采用Cohere是出于其在上市之初,主打微调功能的易用性。

8. 大多数企业认为模型性能正在趋同

不可否认,AI模型正在变成“瓶装水”——尽管闭源模型在外部基准测试中表现更好,但企业领导者仍然为开源模型打出了较高的NPS,因为它们更容易针对特定用例进行微调。

一家公司发现“经过微调,Mistral和Llama的性能几乎与OpenAI一样好,但成本要低得多。”按照这些标准,模型性能的趋同甚至比我们预期的更快,这为企业提供了更多选择。

9. 企业倾向于“模型花园”

大多数企业都希望,在设计AI应用时,只需更改API,就能在不同模型之间进行切换。一些企业甚至预测试提示,以便切换在按下开关时立即发生,而其他企业则构建了“模型花园”,以便他们可以根据需要将模型部署到不同的应用程序中。

一部分原因出于云时代的惨痛教训,减少对供应商的依赖;另一部分原因是,行业发展太快,将鸡蛋放在单一的AI模型中不可取。 

 

三、实际用例:转向更多生产场景


1. 企业更倾向于自主开发而非直接从第三方购买

有了基础模型提供的API,企业更容易构建自己的AI应用。一些基于熟悉应用场景,例如客服或内部的AI Copilot。同时,企业也在尝试创新,例如编写消费品配方、缩小分子发现范围、提出销售建议等等。

总之,“套壳”GPT又会面临挑战。我们认为,那些能够超越“LLM + UI”公式、重新思考企业基本工作流程、帮助企业更好地利用自身专有数据的AI产品,将市场上大放异彩。

2. 企业对内部应用场景兴奋,但对外部应用场景谨慎

2023年最流行的应用场景,要么是专注于内部效率提升,要么是构建AI Copilot作为客服/销售辅助。这些情况,在2024年可能不会发生太大变化,依然占据主导地位。

这是因为企业对GenAI仍持有两大担忧:(1)幻觉和安全问题;(2)将GenAI部署到敏感消费者领域(如医疗保健和金融服务)的公共关系问题。

类似担忧实在太多,谁能提供控制幻觉与安全问题的AI工具,谁将广受欢迎。

四、结语

a16z预测:到2024年底,模型API(包括微调)市场将增长到50亿美元以上(2023年预估是15亿~20亿美金),而企业支出将是其中的重要部分。 

基于企业高层已经发出了“寻找、部署GenAI解决方案”的号令。我们可以预见,过去一年多时间才能完成的交易,现在可能只需2 、3 个月就能完成,且交易规模比以往更大。 

虽然这篇文章重点关注基础模型层,但我们相信AI ToB的机会将延伸到技术栈其他模块——辅助微调的工具、模型部署/运维服务、AI应用程序构建、垂直场景的AI应用建构等等。 

近期,a16z连发三篇AI ToB调查报告,这足以说明,AI炒作之后,B端市场愈加关键。

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年4月9日 16:07
下一篇 2024年4月9日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日