自ChatGPT发布后,全球掀起了一股AI大模型的盛宴。
雷军曾说过,“站在风口,猪都能飞起来”。
如果,雷军说的不是假话;那么,科大讯飞该好好思考为何没有飞起来。
4月22日,科大讯飞已经发布了2023年年报,业绩低于预期。2023年公司实现营业收入为196.50亿元,同比增长4.41%,低于公司原本预计的超200亿元的营收;2023年公司实现归母净利润6.57亿元,同比增长17.12%。
值得注意的是,2023年公司预计实现扣非净利润1.18亿元,同比下降71.74%。与此同时,公司还披露一季报,2024年Q1公司实现归母净利润为-3.00亿,同比下降418.99%。
在AI爆发的2023年,科大讯飞为何没有进入高速增长的快车道呢?
一、昔日的江山仍在
首先,我们先从AI的商业模式说起。
作为降本增效的工具,AI更多是与各个行业进行结合,给各行业进行赋能。例如:AI+教育、AI+医疗、智慧城市(AI+城市管理)等。
因此,AI企业选择什么样的行业作为落地场景,也就决定了其竞争格局及成长的天花板。
从AI的三要素算力、算法、数据的角度来看,AI企业积累特定行业的数据以及对行业的know-how形成的算法,是能够在该行业成功落地的关键因素。
根据科大讯飞披露的年报,近年来,公司依托“平台+赛道”战略,围绕五大行业领域打造了包含智慧教育、智慧医疗、智慧城市、智慧汽车、智慧金融、运营商、平台及消费者业务在内的七大核心业务。
从布局的赛道的来看,公司在教育、城市管理、运营商等业务已经取得了明显的效果。
在AI大模型爆发之前,2022年公司的智慧教育、智慧城市、运营商业务、开放平台及消费者业务的营收占比分别为34.11%、23.62%、11.14%、24.66%。
究其原因,妙投认为可以归纳为先发优势、客户类型两个方面:
一方面,科大讯飞较早布局智慧教育、智慧城市赛道、运营商赛道,积累了相关行业数据和行业理解能力,如:据不完全统计,科大讯飞分别于2004年、2008年、2017年便已涉足教育、运营商、城市管理的赛道;
另一方面,教育、城市管理均由政府牵头,且G端业务本身就有天然的准入门槛,背靠合肥政府、中科院等资源的科大讯飞更容易拿到订单,而电信运营商属于“垄断”的央企,对供应商有一定的准入要求,且中国移动是科大讯飞的第一大股东。
作为公司营收的基本盘,2023年公司的智慧教育、智慧城市、运营商业务均有所下滑。
由于G端业务受到经济环境、财政支出等影响,2023年公司的智慧教育、智慧城市两大业务营收占比相对于2022年有一定程度下降。
而,公司的运营商业务收入占比基本保持相对稳定。根据公司发布的2023年报,2023年公司运营商业务的营收同比下滑0.05%。
可见,AI大模型爆发以及星火大模型的发布,并未给公司的智慧教育(G端)、智慧城市、运营商业务带来太大的增长空间。
那么,这里我们不禁有个疑问,讯飞星火大模型到底给公司带来哪些增长呢?
二、大模型的盈利效果一般
自2023年5月科大讯飞正式发布星火大模型以来,讯飞星火大模型的变现方式分为赋能现有业务、API授权付费、企业定制化模型3种方式,但只有C端硬件效果明显。
1.现有C端硬件产品涨价
星火大模型赋能C端硬件产品,能够给产品价格带来大幅度的提升。
以学习机为例,目前搭载星火大模型的科大讯飞LUMIE10pro高配版售价达到9899元,T20的售价约7999元,T20Pro的售价约8999元,而未搭载大模型的AI学习机售价约为2000~3000元。
此外,讯飞AI硬件(AI学习、AI办公、AI健康)在“618”期间销售额同比增长125%,在双11全周期内销售额同比增长126%。
在星火大模型的加持下,公司的C端业务的营收占比得到了提升。例如:在教育业务中,2022年G端占比40%,B端占比30%,C端占比30%;2023年预计G端占比31%,B占比28%,C端占比41%。
可见,搭载大模型的C端硬件产品,通过提升整体销售价格,能够为公司的业绩带来增量。2023年公司的智能硬件营收为16.17亿元,同比增长22.35%。
2.API调用业务降价
除了赋能现有的产品,公司也推出了面向开发者调用星火大模型API接口收费方案。而API接口就像是一个桥梁,可以让一个软件程序请求星火大模型为其提供信息或服务。
此外,在讯飞星火认知大模型发布后,开发者数量有显著的增长。在星火大模型发布后,开发者两个月内增加了85万家。开发者数量从2023年6月的497.4万家提升至2023年12月的578.5万家。
不过,在星火大模型API调用的营收方面,公司并未披露相关信息。
但,值得注意的是,与C端产品涨价相反,科大讯飞的API调用服务降价了。
目前公司已分别就星火 V1.5 及 V2.0 推出了不同服务量的使用套餐,价格介于 1800-90000 元 /年(V1.5)及 3600-180000 元/年(V2.0)不等。
目前,根据科大讯飞官网,公司分别就星火V1.5、V3.0及V3.5推出了不同服务量的使用套餐,价格介于750~60000元/年(V1.5)、1500~120000元/年(V3.0/V3.5)不等。
(数据来源:科大讯飞官网)
星火大模型经历迭代之后,性能有提升,但调用API的价格反而下降了。难道,是因为星火大模型的API调用服务不及预期吗?
究其原因,一方面,讯飞星火的基本版本API定价偏高;另一方面,大模型竞争激烈,GPT-4的加量降价的打法,也给了讯飞等国内大模型压力。
API调用采用基于token的计价方式。截至2023年10月初,部分主要大模型官网显示的API定价如下所示(单位:元/千token):
各大模型API价格对比 | 标准版 | 增强版 |
---|---|---|
阿里通义千问 | turbo:0.012元/千token | plus:0.14元/千token |
腾讯混元 | 标准定价0.01元/千token | 高级定价 0.10元/千token |
百度文心一言 | turbo:0.008元/千token | 正常:0.12元/千token |
讯飞星火 | 1.5版本星火模型:0.018元/千token | 2.0版本星火模型:0.036元/千token |
清华智谱(GLM) | Lite:0.008元/千token | Pro:0.01元/千token |
ChatGPT | GPT-3.5:0.015美元/千token | GPT-4.0:0.06美元/千token |
(数据来源:各大模型官网)
在各大模型的标准版本中,讯飞星火V1.5价格最贵,明显高于竞争对手。
此外,随着大模型的不断迭代,GPT也开始降价了。OpenAI将GPT-4升级为GPT-4 Turbo,Turbo版的收费却大幅下降。与GPT-4原版本相比,Turbo版输入1000token的收费价0.01美元,便宜三倍,输出1000token的价格为0.03美元,便宜两倍。
因此,讯飞星火的API定价下降也属于情理之中。
3.企业定制化大模型对营收增长贡献有限
相较于C端市场,B端市场才是大模型的发力点。
业内普遍认为,经行业专业知识调整的模型在大模型的基础上表现出的工作效果,会比未经优化的通用基础大模型更优。
如:因AI大模型创业“吵架”的投资人朱啸虎与猎豹移动CEO傅盛均认同,很多垂直场景用开源小模型优化后的结果远比通用大模型要好,垂直场景和数据的重要性远超大模型本身。
目前,科大讯飞联合行业头部企业共同发布了金融、汽车、运营商、工业、住建、法律等12个行业大模型。
从产业资源的角度来看,讯飞星火大模型在教育、法律、住建、运营商等赛道能占据一席之地,但在汽车、金融等新赛道的竞争力还需观察。
现阶段,星火大模型在教育、法律、住建、运营商等赛道的落地,对营收增长也很有限。
大模型在法律、住建等G端项目落地,同样受经济环境、财政支出等影响。短期来看,大模型有望在这些G端赛道落地,但能否给公司带来较好的营收增长,仍需观察。
在运营商赛道上,科大讯飞声称讯飞星火已经赋能不少应用,例如:讯飞星火携手中国移动打造了5G网络to C亮点应用,可实现通话变纪要。
仅仅只是语音转录文字,那一直就是讯飞开发很久的功能。
如果,讯飞星火能将通话内容整理形成精简版的文字纪要;那么,为什么最近凭借对长文本处理、语义理解出圈的却是Kimi大模型,而不是讯飞星火?
此外,在2023年公司的营收仅增长7%的背景下,公司的运营商业务收入占比基本保持相对稳定。可见,星火大模型在赋能运营商业务后,并没有给营收带来立竿见影的效果。
在金融、汽车等新开拓的新赛道上,后发者科大讯飞缺乏客户资源。
这里,以汽车大模型为例,特斯拉、比亚迪、蔚来、理想等纷纷自研大模型,红旗、东风日产、爱驰、零跑、海马、哪吒等在内的车企纷纷加入百度文心一言的朋友圈。据不完全统计,讯飞星火大模型已经给奇瑞、广汽、长安等车企赋能。
2023年,科大讯飞的智慧汽车业务实现6.95亿,同比增长49.71%,有不错的表现,但对公司近200亿的营收贡献有限。
总体而言,星火大模型对业绩的积极效果体现在C端业务、智能汽车等业务上,但对公司的营收基本盘贡献仍有限。
三、一场“豪赌”
值得注意的是,大模型同样也是烧钱的。
截至2023年,科大讯飞的研发费用为34.81亿,同比增长11.89%,占营收比例为17.71%。
另外,据科大讯飞的年报披露,公司将在自主可控平台上加大认知大模型研发投入。这也是,2023年公司扣非净利润预计同比下降71.74%的主要原因。
根据前面的分析,由于科大讯飞的营收基本盘较大,星火大模型虽能给公司的C端业务带来一定的积极影响,但不足以让公司的营收上一个新台阶,同时星火大模型迭代仍需较大的研发投入,让公司的盈利能力继续承压。
此外,大模型的迭代仍会继续。公司表示,目前对标GPT-4当前能力的讯飞星火V4.0正在训练中,预计在2024年6月发布。
但,让人没想到的是,GPT-5还没发,微软就已悄悄为OpenAI开始训练GPT-6了。而这次训练将用到10万个H100的GPU,按1个H100的售价约3万~4万美元来计算,光GPU的费用就高达21亿美元。当然,模型的训练也可以选择算力租赁的方式,但费用依旧不菲。
可见,只要有竞争,想超越对手,大模型的投入就看不到尽头。
而科大讯飞这次押注大模型,也无疑是一场“豪赌”。在风口下,科大讯飞凭借大模型走出盈利的困境,仍有较大的不确定性。
另外,科大讯飞在资本市场的表现也不尽如人意。
2023年,各大厂商纷纷发布大模型时,资本市场对科大讯飞的大模型抱有较高的预期,科大讯飞的股价一度涨到了81.90元。
随着2023年年报、2024年一季报的发布,科大讯飞的业绩给资本市场泼了一盆冷水,其滚动市盈率达到了232.41。
与业绩类似,科大讯飞的估值也飞不起来。
免责声明:本文内容仅供参考,文中信息或所表达的意见不构成投资建议,请读者谨慎作出投资决策。