大模型2024:先把价格打下去

OpenAI从成立到推出GPT-4,足足用了8年,而Mistral。AI同样未公布大模型的具体参数与训练数据Token数,但此前谷歌应用MoE开发出的GLaM模型参数量达12000亿、训练数据16000亿token,分别是GPT-3.5的6.8倍和5.3倍,其实际的训练成本却只有GPT-3.5的三分之一也印证了MoE框架的高效。

作者|昭觉

AI新星OpenAI最近有点头疼,不仅公司和CEO被马斯克起诉,其拳头产品GPT-4在性能和价格上均面临竞争对手的冲击。

近期,成立不到一年的法国人工智能创企Mistral AI发布了最新大模型Mistral Large,并推出了首个聊天机器人产品Le Chat,直接对标ChatGPT。据了解,Mistral Large在目前所有能通过API访问的大模型中评分第二,仅次于GPT-4。

更值得关注的是,Mistral AI还与微软达成了更加深入的合作协议,微软将投资入股Mistral AI,并为其提供算力和云服务,而Mistral AI的大模型资源也将在微软的Azure云平台中售卖。要知道,上一个有此待遇的AI创业公司还是OpenAI。

除此之外,更低廉的API接口价格也让Mistral Large成为了GPT-4的有力竞争者,并有望在当前的大模型军备竞赛中掀起一场价格战。

比GPT-4更具性价比?

作为一款诞生于欧洲的大模型,Mistral Large支持英语、法语、西班牙语、德语和意大利语,可深度理解语法和文化背景。另外,Mistral Large的上下文窗口为32K,可从约2.4万个英文单词的大型文档中精准提取信息;具备精确的指令跟随能力,便于开发者定制审核策略;支持原生函数调用和限定输出模式,助力应用开发规模化和技术栈现代化。

性能方面,虽然Mistral AI并未公布Mistral Large的参数量,但其关键性能已达到业界前三。

具体来看,Mistral Large在MMLU基准测试中的常识和推理得分为81.2%,仅次于GPT-4的86.4%。Mistral Large达到了顶级的推理能力,可用于复杂的多语言推理任务,包括文本理解、转换和代码生成。其推理准确性优于Anthropic的Claude 2、谷歌的Gemini 1.0 Pro、OpenAI的GPT-3.5,推理速度甚至超过了GPT-4和Gemini Pro,显示了其在处理复杂任务时的高效能力。

多语言能力测试中,Mistral Large在法语、德语、西班牙语和意大利语的Arc Challenge、HellaSwag、MMLU等基准测试中的表现均远超目前公认最强的开源大模型——Meta的LLaMA 2 70B。

数学和编程能力方面,Mistral Large同样表现不俗:其在MBPP基准测试中的编程得分高于LLaMA 2 70B,在Math maj@4基准测试中的数学得分也领先于GPT-3.5、Gemini Pro 1.0等模型。

作为Mistral AI商用系列中的旗舰模型,Mistral Large与GPT-4一样并未开源。用户可通过三种方式访问与使用Mistral模型:其中,在欧洲的Mistral Al基础设施上安全托管的La Plateforme是开发者访问Mistral Al所有模型的首选方式,开发者可通过点击创建自己的应用程序和服务;Mistral Al的开源模型目前可通过GCP、AWS、Azure、NVIDIA等云服务商获得,而Mistral Large目前仅通过Azure云平台提供服务,包括Azure AI Studio和Azure Machine Learning。

此外,开发者还可以通过虚拟云或on-prem自行部署使用Mistral模型,这种方式提供了更高级的自定义和控制,自有数据将保留在公司内部。

价格方面,目前上下文窗口为128k的GPT-4 Turbo的输入价格为0.01美元/1000 token,输出价格为0.03美元/1000 token。相比之下,Mistral Large的输入、输出价格均为前者的80%。

体验方面,有AI创业者指出,Mistral Large的使用体验碾压曾经的第三名Claude 2。截至2023年11月,OpenAI的开发者规模达200万,其中包含92%的世界500强企业。而Mistral Large直逼GPT-4的性能和更低的售价有望为需求量巨大的企业用户节省一大笔开支,从被OpenAI垄断的MaaS(模型即服务)市场撕开一个口子。

MoE架构立大功

Mistral Large把价格打下来的底气是更低的训练成本。OpenAI CEO Sam Altman曾表示,GPT-4的模型训练成本“远远超过了”5000万至1亿美元。而据Mistral AI创始人Arthur Mensch透露,Mistral Large的训练成本不到2200万美元,约为GPT-4的五分之一。

除了真金白银的训练成本,后来者居上的Mistral Large的时间成本也更具优势。OpenAI从成立到推出GPT-4,足足用了8年,而Mistral AI推出仅次于GPT-4的Mistral Large只用了9个月。

Mistral AI号称欧洲版OpenAI,创始团队由Meta和Deepmind的前科学家们组成。成立后的半年多时间里,Mistral AI接连完成1.05亿欧元种子轮融资和后续的4.15亿欧元融资,得到美国光速、a16z等顶级VC以及英伟达、赛富时、法巴银行的青睐。

同期,Mistral AI先后推出号称当时“最强的70亿参数开源模型”Mistral 7B、首个开源MoE大模型Mistral 8x7B。其中,Mistral 8x7B更是以一条简单粗暴的磁力链接引领了大模型发布的新范式,给业界带来震撼。

凭借巨额融资叠加新品发布,Mistral AI的估值也曾一夜之间飙升至20亿美元,成为大模型领域的新晋独角兽。而Mistral AI更引人关注的是,从初期只有6人的小团队成长至今,Mistral AI一直是MoE路线的忠实信徒。

MoE即“混合专家模型”,这种模型设计策略通过将大模型分解为多个子模块,提高模型的容量、处理能力和效率。MoE架构主要由“专家”和门控机制两部分构成。每个“专家”相当于一个小型的Transformer模型,专门处理特定类型的输入数据,多个“专家”的结合则使模型具备了更好的性能。而门控机制则用于判定输入样本需由哪些“专家”接管处理。

大模型的大规模应用与其算力成本紧密相关。对于模型厂商而言,目前主要的算力成本包括预训练成本和推理成本。除去GPU每秒运算次数和显卡的租用成本这两个常量后,大模型的预训练成本与模型参数量和训练数据的token量正相关,推理成本与模型参数量正相关。而大模型的性能通常与其参数量相关联,而越高的参数量意味着越高的算力成本。因此,如何在同样的算力成本下提升大模型的参数量成了破局的关键。

而MoE的解题思路是引入稀疏性,即模型训练过程中,各有所长的“专家”们独立训练、各司其职,在过滤重复信息、减少数据干扰的同时大幅提升模型的学习速度与泛化能力;在推理过程中,每次推理只按需调用部分“专家”,激活其对应的部分参数,如此便有效降低了相同参数下大模型的算力成本。

有意思的是,OpenAI在去年成为“当红炸子鸡”成功得到众多重度用户的续费后,被曝采用MOE重新设计了GPT-4构架,导致性能受到影响。尽管OpenAI官方并未对此进行正面回应,但利用MOE架构降低训练成本,已经被认为是一个无比自然的发展方向。

Mistral AI同样未公布大模型的具体参数与训练数据Token数,但此前谷歌应用MoE开发出的GLaM模型参数量达12000亿、训练数据16000亿token,分别是GPT-3.5的6.8倍和5.3倍,其实际的训练成本却只有GPT-3.5的三分之一也印证了MoE框架的高效。

延续着MoE的路线,如果说此前发布的开源模型Mistral 7B、Mistral 8x7B实现了对LLaMA等大参数开源模型的逆袭,此次发布的Mistral Large则是Mistral AI对可持续商业模式的探索,试图以闭源模型搭建可盈利的产品线。

大模型进入成本战

顶着对华芯片禁售的压力,芯片巨头英伟达以一份耀眼的四季报打消了市场顾虑:在数据中心与游戏业务双核驱动下,英伟达2023年四季度营收、净利润大幅超出预期,毛利率再创历史新高。业绩加持下,英伟达业绩已突破2万亿美元,更接连超越亚马逊、沙特阿美,成为仅次于微软和苹果的全球第三大公司。

数据、算力和算法构成了大模型的基石。在当下这波如火如荼的大模型淘金热中,从学界到初创企业再到巨头纷纷下场,而无论其技术路线是开源或闭源,应用场景是通用或垂直,AI芯片作为大模型大脑,始终是模型预训练和推理必不可少的工具。

身为高端GPU市场中唯一的提供方,“军火商”英伟达是这场大模型军备竞赛中永远的赢家——以A100为例,若要通过训练达到ChatGPT级别的性能,至少消耗一万张A100加速卡,巨头们囤货的单位也以万张起,怎能不赚得盆满钵满?

但换个角度来看,在GPU供应短缺的背景下,一张A100显卡售价约10000美元甚至更高,对于大模型厂商来说,在应用落地和商业化前景仍不明朗的情况下,动辄上亿美元真金白银的投入必然肉疼。在算力、数据、人力等资源成本高企的情况下,如何用相对低的成本训练出一个想要的大模型,并以一个用户可接受的成本让大模型跑起来是大模型行业在2024年的当务之急。

在保证同等效果前提下,提高硬件利用率,缩短算力使用时长;优化工具链以提高训练、推理效率;适配低价GPU是当前国内大模型厂商降本的主流方法论。

例如,面向大模型训练,腾讯升级了自研机器学习框架Angel,针对预训练、模型精调和强化学习等全流程进行了加速和优化,提升了内存的利用率。借此,大模型训练效率可提升至主流开源框架的2.6倍,用该框架训练千亿级大模型可节省50%算力成本,大模型推理速度提高了1.3倍。

京东云推出vGPU池化方案,提供一站式GPU算力池化能力,结合算力的任意切分和按需分配,在同等GPU数量的前提下,实现了数倍业务量扩展和资源共享,降低了硬件采购成本,使用更少的AI芯片支撑了更多的训练和推理任务,GPU利用率最高提升70%,大幅降低大模型推理成本。

阿里云通义大模型则聚焦于规模定理,基于小模型数据分布、规则和配比,研究大规模参数下如何提升模型能力,并通过对底层集群的优化,将模型训练效率提升了30%,训练稳定性提升了15%。

百度升级了异构计算平台“百舸”,将训练和推理场景的吞吐量提高了30%-60%,意味着原先需要用100天的训练才能达成的效果,现在只需40-70天,节约时间等于间接省钱。同时,在英伟达之外,百度的“千帆”大模型平台还兼容昆仑芯、昇腾、海光DCU、英特尔等国内外其他主流AI芯片,通过组合选项完成低成本的算力适配。

正所谓“早买早享受,晚买有折扣。”当前,Mistral AI以性价比暂时领先,但也有不少开发者还在等待OpenAI大模型产品的升级降价。毕竟,正是OpenAI自己在GPT-4发布后不到8个月就推出了更强也更便宜的GPT-4 Turbo。

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年3月12日 12:10
下一篇 2024年3月12日 12:55

相关推荐

  • 抖音不再陪小杨哥“疯狂”

    就在抖音电商峰会一周前,快手一哥辛巴炮轰小杨哥,指责其在质检、售后、赔偿态度等方面存在问题,模仿辛选的商业模式,以及小杨哥此前销售的一些产品如茅台酒、梅菜扣肉等存在质量问题,如果小杨哥不处理,他将用一亿元替小杨哥进行赔付。
    在2022年9月的抖音电商作者峰会上,刚转型直播带货一年的小杨哥,第一次获得了抖音电商的卓越个人奖。
    在短视频时代,抖音成就了小杨哥,正如小杨哥感谢抖音那般,“它具有很强的开放性和包容性,它给每一个人都提供平等展示自我的机会”,小杨哥也为抖音带来了很多用户,高峰时期小杨哥抖音粉丝量超过了1.2亿。

    2024年9月20日
  • 科隆新材IPO:业绩波动、内控缺位或成上市“拦路虎”

    上半年业绩表现不佳
    科隆新材的主营业务是液压组合密封件和液压软管等橡塑新材料产品的研发、生产和销售,以及煤矿辅助运输设备的整车设计、生产、销售和维修,同时也为风电、军工、高铁等行业客户提供定制化橡塑新材料产品。
    同时,如果未来煤炭主体能源地位被快速替代,下游客户新机装备需求减少,科隆新材又未能拓展旧机维修业务,或是未能适应市场变化、新技术和新产品未能顺应市场发展趋势,那么科隆新材就存在橡塑新材料产品经营业绩下滑的风险,甚至可能会对公司整体经营业绩造成不利影响。

    商业密码 2024年9月20日
  • 淘宝倒逼新风向:一场电商减负运动

    但售后服务同时也是电商变革最复杂的一环,开店、佣金、流量推广都只是商家与平台间的服务交易,售后却涉及平台导向、商家成本和消费者体验三方,且受社会消费情绪变化、平台生态优劣的直接制约,是各方利益最难平衡的地方。
    我们也发现,在这个过程中,电商平台的自我角色定位也在调整,从推出「仅退款」的游戏规则制定者、大家长,逐渐过渡到生态系统的设计者、平衡商家和消费者利益的服务商。

    商业密码 2024年9月20日
  • 博浪AI时代,阿里、华为“硬碰硬”

    根据申万一级行业分类,阿里巴巴概念板块156家上市公司分布于22个行业,其中传媒、电子、商贸零售、通信、医药生物分别聚集了50、25、13、11、9只概念股。
    根据申万一级行业分类,华为概念板块896家上市公司分布于28个行业,其中,计算机、电子、机械设备、通信、电力设备分别聚集了220、193、92、65、61只概念股。

    商业密码 2024年9月20日
  • 员工挂“罪牌”戴纸托手铐引质疑,80后王云安创立的古茗又“翻车”了

    员工头挂“罪牌”手戴纸托手铐,古茗玩梗惨遭翻车
    近日,古茗员工头挂“罪牌”、手戴形似手铐纸托的视频,在社交平台上广泛传播,引发诸多网友热议。
    至于上海,王云安认为该市场毗邻浙江,因此会有一定的消费者基础,但是上海奶茶行业竞争激烈,外卖比例很高,相对来说门店的收益更难做好,“我们在进省会城市,以及大的一线城市的时候,我们一定是做好准备了再去的,比如上海的消费者到底要什么,我们进去应该怎么做才可以让更多的店做得更好,古茗能够给上海的消费者带来什么样的不同呢,这些是我们要去思考的。

    商业密码 2024年9月20日
  • 古井教父悲情收场

    1986年之后的十年里,古井的资产增长了18倍,利润增长了24倍,王效金也因此被称为“古井教父”,甚至是“中国酒界第一人”。
    这款拥有1800多年历史的安徽名酒也许永远也不会再与茅台并肩了,但如今也可以称得上再度振兴,尤其是这一切还建立在王效金的固执和自大,当年差一点毁了古井贡酒的基础上。
    他甚至曾经在公开场合说过,王效金就是古井,古井就是王效金,“效忠”古井就是效忠他。

    2024年9月20日
  • 直言AI不如原创,吴克群凭什么?

    吴克群的原创音乐哲学
    来到《音乐缘计划》,吴克群分外真诚。
    如此来看,吴克群选择参与《音乐缘计划》这一原创音乐综艺,正是源自于他与原创音乐人之间的惺惺相惜。
    在分享创作心得、探讨音乐理念时,吴克群不再简单是一个综艺节目的嘉宾,他也是作为一名原创音乐人出现在舞台上,让一切热爱与纯粹都具象化。
    于是,面对当下音乐生态的顽疾,新生代音乐人的困境,吴克群会在稳定的音乐事业之外,积极参与各种原创音乐活动。

    商业密码 2024年9月20日
  • 专门“收割”妈妈们的特百惠,被时代抛弃了

    02特百惠被时代抛弃了
    《新品略财经》记得三四年前,在深圳龙华区某购物中心还开了一家特百惠的店,也曾在店里买过东西,当时的印象是特百惠的产品卖得还不错。
    在《新品略财经》看来,特百惠既是时代的产物,也是被时代抛弃的产物,这与消费环境、消费需求、市场竞争,乃至是与特百惠的传统商业模式等各方面密切相关。
    从产品层面来说,特百惠是化学科技运用到日用物品的代表案例,在特百惠诞生的年代,家庭有着食物保鲜难的痛点,特别是在冰箱不普及的年代,特百惠犹如“刚需”般存在。

    商业密码 2024年9月20日
  • 县城消费的另一面:喝奶茶的少了,钓鱼的多了

    图源:作者拍摄

    图源:作者拍摄
    刘子涵继续说道,现在同学之所以不愿意喝新茶饮,还有一部分原因是,学生们对新茶饮的口感愈发失去新鲜感。

    图源:作者拍摄
    但并不是所有县城零食折扣店都这么火爆,中秋节假日当晚当地赵一鸣零食折扣店偌大的门店看不到太多顾客,收银台前也仅有几个顾客在排队结算。

    图源:受访者提供

    有人为钓鱼投入千元,有人干起代购
    和新茶饮相对冷清、零食折扣店门店客流分化不同的是,部分业态在县城仍迎来火爆。

    2024年9月19日
  • 闪回科技二度冲刺港股,深陷盈利困境,雷军看走眼了?

    在回收生意的上游,闪回科技通过闪回收从消费电子厂商、零售商、运营商以及C端消费者处获取二手手机供给。
    在下游销售端,闪回科技以“闪回有品”面向B端商户和消费者进行二手机和新机的销售,公司接近90%营收由闪回有品贡献。”

    B端渠道的手机厂商是闪回科技高增长最大的助力,但与之相伴的是,面对强势的手机大厂,闪回科技没有议价权,还需要向手机厂商支付高昂的保证金和促销服务费。

    2024年9月19日