为了成为“英伟达平替”,大模型厂商开卷了

一、让英伟达少赚点钱

实际上,无论是OpenAI还是微软、谷歌,亦或是国产芯片厂商,与其说是要抢英伟达的生意,不如说是想让英伟达少赚自己点钱。

比如微软就大方承认,自己即将发布的AI芯片并不能直接替代英伟达的芯片,但随着微软继续推动在Bing、Office、GitHub和其他方面推出AI驱动的功能,自研芯片可能会大幅削减运算成本。

最近,中美的大模型厂商们都在干同一件事——卷AI芯片。

在硅谷,谷歌给最新款的Pixel手机装上了Tensor G3芯片,让用户可以在手机端解锁生成式AI应用;微软宣布将在11月推出首款自研AI芯片,以此降低算力成本并减少对英伟达的依赖;OpenAI也表示正尝试自研AI芯片,并已开始评估潜在的收购目标;亚马逊以40亿美金投资大模型创企Anthropic后,要求其使用亚马逊自研AI芯片来构建、训练和部署大模型……

总结起来就是,有AI芯片生产能力的,如谷歌、亚马逊,想用自研芯片替换英伟达。没有AI芯片生产能力的,如微软、OpenAI,创造条件也要替换英伟达。

而在国内,AI芯片市场也再起波澜。华为发布AI芯片昇腾910,配合全新架构的昇腾AI计算集群,可支持超万亿参数的大模型训练;AI芯片厂商燧原科技宣布完成D轮融资,融资规模达到20亿人民币……

为什么大家都不约而同地将大模型,卷向了AI芯片?很显然,AI芯片研发是一项长周期、重投入的工作,也已经有了行业巨头英伟达,可以提供高性能的AI芯片。

细究起来,恐怕只能概括为“成也英伟达,败也英伟达”。英伟达对AI算力的垄断,让全球AI公司都要不断承担英伟达芯片的溢价,并且由于英伟达生产能力有限,算力短缺正在制约一些AI公司的发展。

根据dealroom.co数据,在这波生成式AI的热浪中,美国获得了全球投融资的89%,而在AI芯片的投融资中,中国AI芯片投融资世界第一,超过美国两倍。

也就是说,尽管在大模型发展方式、发展阶段上,中美大模型企业还存在诸多差异,但在掌控算力这件事上,大家却显得格外一致。

一、让英伟达少赚点钱

实际上,无论是OpenAI还是微软、谷歌,亦或是国产芯片厂商,与其说是要抢英伟达的生意,不如说是想让英伟达少赚自己点钱。

比如微软就大方承认,自己即将发布的AI芯片并不能直接替代英伟达的芯片,但随着微软继续推动在Bing、Office、GitHub和其他方面推出AI驱动的功能,自研芯片可能会大幅削减运算成本。

换言之,微软等大厂自研AI芯片,其实并非想取代英伟达,而更像是想自研一款平替产品,以缓解算力不足和算力成本过高的问题。

毕竟英伟达对AI算力的垄断,已经到了令人瞠目结舌的地步,大模型厂商们也苦英伟达久矣。

根据公开数据,英伟达在独立GPU市场份额达80%,在高端GPU市场份额高达90%。

2020年,全世界跑AI的云计算与数据中心,80.6%都由英伟达GPU驱动。2021年,英伟达表示,全球前500个超算中,大约七成由英伟达芯片驱动。2023年第二季度,英伟达的H100显卡出货量达800多吨,依然供不应求。

由于英伟达霸占了高端GPU市场,产品不可避免出现了溢价。一个典型案例是,由于英伟达AI芯片供不应求,国内有人从机房把旧A100芯片拆出来倒卖。这些旧货非但没有贬值,反而卖到10万一片,比去年同期新品8万左右的售价还要更贵。

对于算力需求巨大的大模型厂商来说,不仅短期承担了过高的芯片溢价,长期角度更是为英伟达的发展壮大做了嫁衣。

比如英伟达第二季度财报显示,公司第二季度收入为135.1亿美元,较去年同期增长101%。其中,数据中心收入占据大头,创下了103.2亿美元的纪录,较去年同期增长171%,远超分析师预期。

而英伟达巨额利润的背后,其实是各大科技巨头的输血支持。公开财报显示,大部分数据中心的扩建费用主要由各家科技巨头承担,谷歌、微软、Meta的财报中都强调了数据中心的成本支出。

在市场环境整体下行,大家日子都不好过的当口,还要将巨额利润上供给英伟达,帮助其进一步垄断市场份额,掌握定价权,各家科技巨头无疑成为了冤大头。

同时更进一步,除了钱的因素,英伟达已经数次表示,即便已经开足马力生产,自己的GPU产能也难以满足当前市场的需求。

按照硅谷流行的说法,英伟达就像大模型时代的卖铲人,不论大模型之战的胜利方是谁,笑到最后的都是卖铲子(算力)的英伟达。

随着大模型之战愈演愈烈,英伟达当然可以从容生产,毕竟AI芯片卖给谁不是卖。但对于身处战斗第一线的微软、谷歌,以及OpenAI等一众创业公司来说,如果在短兵相接的时候,英伟达断供了,就等于没了武器,企业的命运将何去何从,恐怕要打上一个大大的问号。

毕竟,连与黄仁勋私交甚密,且不差钱的OpenAI在开发GPT-4时都因为算力短缺而受阻,又有哪家公司能确保英伟达不会断供呢?

因此,无论从经济性还是安全性角度,大模型厂商自研AI芯片都在情理之中。

二、钱多了得花出去

除了逻辑成立,大模型厂商卷向AI芯片的最直接原因,还在于兜里的钱变多了。

根据dealroom.co数据,过去五年全球生成式AI企业融资额超过220亿美元,尤其是2023年,融资额足有150亿美元。而这些巨额投资,有89%都流向了美国的初创公司,尤其是OpenAI,一家就拿到了VC将近120亿美金的投资。

对创业公司来说,钱少了固然万事皆休,但有时账目上钱太多了,也成了幸福的烦恼,对大模型创企尤其如此。

一方面,当前大部分大模型创企,还不具备自我造血能力,其账目上的巨额资金,都是投资人打进去的。那另一方面,投资人不光会打钱,还会盯着企业花钱。在收获巨额融资后,如果没有相关的业务进展,企业恐怕很难给投资人交差。

既不能不花钱,又不能乱花钱,“自研AI芯片”就顺理成章提上了企业日程表。主要原因有两个:刚需+阶段性要求。

首先,大模型发展的底层是算力,AI芯片可以说是大模型创企的水和电。但这个刚性需求,长期以来被英伟达所把持。

OpenAI的CEO山姆·奥特曼就曾公开抱怨GPU短缺,他认为GPU市场完全由英伟达主导,“这家公司控制着全球80%以上最适合人工智能训练的芯片市场。”而英伟达对AI芯片的垄断,也直接影响了OpenAI的发展。

山姆·奥特曼透露,其实早在GPT-4发布之初(今年3月),OpenAI就计划将ChatGPT的上下文输入长度提升到32k token,但直到GPT-4上线很长一段时间,这一计划都未能达成。其中一个关键因素,就是英伟达的算力芯片供不应求,以及算力成本过高。

如果说以往公司规模较小,缺乏资金时,被英伟达“卡脖子”是无可奈何。现如今,OpenAI兵强马壮,资金充裕,恐怕很难再忍受将企业命脉交给别人,打乱自己的全盘计划。

除了刚性需求,大模型厂商最近不约而同“围剿”英伟达,还在于大模型发展的阶段性需求。简单来说,就是到了烧硬件的时候。

需要明确的是,大模型训练有些类似押注,并非每次训练都能得到满意的结果。换言之,训练次数增多不一定能达到优化的效果,如果盲目将钱投入训练,大模型创企为算力支付的高昂费用只能是试错成本。

而如果把资金花到芯片研发上,效果则完全不同。

比如OpenAI的做法,收购芯片研发公司,就等于把原本要上供给英伟达的钱,沉淀成了公司资产。不仅能在未来增强公司核心竞争力,在当前也能给投资人合理的解释——公司正把钱用在刀刃上,构建自身技术壁垒。

对于谷歌、亚马逊和微软等不差钱的硅谷大厂来说,花钱搞芯片研发更是必选项。

原因很简单,一方面,随着生成式AI大热,英伟达的市值突破万亿美元,即便是硅谷大厂,心头应该也是羡慕不已,想要分一杯羹。另一方面,随着生成式AI被各大厂摆上核心位置,算力之争大概率将决定未来企业的生态位,大厂们自然不能让英伟达掌握自己的核心命脉。

三、先成为60%的英伟达

反观国内市场,尽管国产大模型与硅谷大模型发展阶段不同,但在追赶英伟达这件事上,大家的目标却非常一致。

中国工程院院士、清华大学计算机系教授郑纬民就认为:“今天国产AI芯片只要达到国外芯片60%的性能,如果生态做好了,客户也会满意。

其实从钱的流向来看,国内对AI芯片非常重视。最近5年中国AI芯片的投融资额世界第一,达到了74亿美金,比美国还多两倍。

在烧了大量的研发经费后,国内AI芯片厂商已经有了6000+家,其中主流厂商约60余家,已经大致形成了三个梯队。

第一梯队包括海光、华为、寒武纪等厂商,有成熟产品,且有商业化量产规模的应用;第二梯队主要是燧原、昆仑芯、天数、壁仞、沐曦等创企,已经发布了AI产品,但应用领域还相对有限;第三梯队则是一众仍在埋头AI芯片研发,尚无AI芯片量产的早期企业。

实际上,在硬件性能方面,国产第一梯队的AI芯片已经与英伟达相差不远。比如科大讯飞总裁刘庆峰就公开表示,“华为的AI芯片性能,已经可以对标英伟达的高端显卡A100,尤其在显卡的裸金属性方面。”

当然,在硬件性能上接近英伟达,并不意味着国产AI芯片可以取代英伟达。因为英伟达真正的壁垒,并不只有GPU硬件性能,还在于其庞大的AI软件生态CUDA。

简单来说,决定GPU性能的不只是显卡本身,还包括配套软件和开发工具对应用的支持。作为一家成立30年,并且早早确定专注于生产GPU的公司,英伟达定义了GPU通用计算编程框架CUDA,开发者们早已习惯了用CUDA专有的编程语言,制作GPU驱动的应用程序。

换句话来说,如果开发者要迁移到谷歌、亚马逊、微软或国产的GPU芯片,他们甚至需要学习全新的软件语言,迁移成本显然很高。

郑纬民教授也指出,行业抢货国外AI芯片而不用国产芯片,这一现象本质还是国产芯片生态仍有差距。

他认为完善的GPU生态应该包括两个方面:一方面是基于其他系统研发的软件要能容易地迁移到国产生态中;另一方面是国产系统的开发套件要能很好地支持新软件的开发。“如果能达到生态的成熟,哪怕芯片硬件性能只有国外的60%,执行大多数任务也不会有明显感知。”

生态起决定作用,英伟达有先发优势,这两个因素叠加在一起似乎成了一道无解的命题——英伟达就是会垄断市场。

但更多AI厂商自研芯片,却引入了新的变量。

首先,自研芯片意味着AI公司可以根据自身需求,对软件和硬件进行改造,确保芯片设计完全符合算法需求,提高运算效率和性能。与此同时,AI公司还可以围绕自研芯片,建立私有的生态系统,包括软件库、框架、工具和支持服务,以此满足客户定制化需求。

对国产AI公司而言,虽然很难跟英伟达正面硬刚,但可以先成为60%的英伟达。虽然无法满足全球AI算力需求,但至少可以先满足自身算力需求。

而从长期角度,正如百川智能创始人王小川所言,大模型发展分为训练、推理两部分,虽然训练目前只有英伟达做的最好,但推理需要有国产AI芯片。“未来如果要往更高模型发展,算力储备非常关键。这场‘算力仗’,中国的国产AI芯片必须要能顶上。”

AI芯片快速迭代的特性,注定了这一赛道的格局不会永远固定。比如,就在燧原科技宣布完成D轮20亿元融资,缔造今年芯片最大融资金额之际。

另一条新闻也在业内刷屏,长期亏损的国产AI芯片第一股寒武纪宣布,国投基金减持完毕,基本清仓。而这种创投股东集体清仓的情形,对寒武纪来说已不是第一次。

即便在AI芯片热潮汹涌的当下,要想真正搭上这股东风,恐怕也并不容易。

本文来自微信公众号:小饭桌(ID:xfzmedia),作者:黄泽正,编辑:张丽娟

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2023年10月17日
下一篇 2023年10月17日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日