英伟达也在下一盘AIPC的大棋

 
PC业务的前景不如数据中心
 
事实上,在2023年AI大模型爆发以前,英伟达最大的市场一直是PC端的“游戏”板块。
 
2018财年,GPU加速计算对于深度学习的支持使得英伟达的数据中心业务快速增长,当年数据中心业务的收入为193.2亿美元,专业可视化为93.4亿美元。
 
在英伟达最新的2024财年第三季度财报中,快速上升的数据中心业务营收1451.4亿美元,占总营收的80%,完全碾压了英伟达在PC端的传统核心业务“游戏”。

2023年,英伟达几乎一整年都在关注高端显卡、AI大模型、超级计算等数据中心业务,以至于市场都快要忘记英伟达在PC市场上也是垄断全球市场的硬件“军火商”。

 

事实上,在数据中心业务中赚得盆满钵满的同时,英伟达并没有忘本,黄仁勋早已开始盘算,如何用AI到“电竞椅和办公桌”上去赚钱了。

 

在刚刚结束的2024 CES上英伟达发布了大量聚集PC端的AI应用和GPU新品。包括GeForce RTX 40 SUPER系列显卡,NVIDIA AI Workbench,开源库TensorRT-LLM,以及生成式AI驱动的语音和动画模型在内的NVIDIA ACE微服务。


一系列PC端的GPU产品和应用,全部围绕本届CES上PC厂商们最关注的话题AIPC。然而,对于一心扑在AI上的英伟达来说,对PC用户的“关心”,还保留了多少呢?英伟达对业界热炒的AIPC到底是什么态度?

 

PC业务的前景不如数据中心

 

事实上,在2023年AI大模型爆发以前,英伟达最大的市场一直是PC端的“游戏”板块。

 

英伟达从2015年开始把主营业务分为游戏(Gaming)、企业(Enterprise)、高性能计算和云(HPC & Cloud)、自动驾驶(Automotive)几个板块。也是自2015年起,超算和云,也就是未来的数据中心业务,开始在英伟达的营收中一步步走向高位。

 

2016年,英伟达对其业务板块进行了调整,去掉了Enterprise和HPC & Cloud两个板块,取而代之的是今天的专业可视化(Professional Visualization)和数据中心(Datacenter)。英伟达还首次单独公布了这几个业务板块的营收情况。游戏业务的目标用户就是个人电脑,专业可视化的用户则多数是商业客户使用的工作站。

 

2016年英伟达全年的总收入为50.10亿美元。在2016年1月31日结束的财年中,英伟达的游戏业务收入为28.18亿美元;专业可视化业务的收入为7.50亿美元;数据中心业务的收入为3.39亿美元;自动驾驶业务收入为3.20亿美元。

其中游戏业务和专业可视化分别占总收入的56.25%和14.97%,今天如日中天的数据中心,在当时只占总收入的6.77%。

 

个人电脑市场虽然稳定,但市场似乎已经能够看到天花板了,不仅增长速度有限,且由于技术门槛不高,这一领域的市场竞争也日益激烈。

 

2017、2018年,AI技术首次爆发。给英伟达带来了一条新的增长曲线。

 

2018财年,GPU加速计算对于深度学习的支持使得英伟达的数据中心业务快速增长,当年数据中心业务的收入为193.2亿美元,专业可视化为93.4亿美元。数据中心的营收和增幅都远超专业可视化。

英伟达也在下一盘AIPC的大棋

 

数据中心业务的飞速发展,可以说是把英伟达从传统游戏硬件供应商,带上了多元化技术公司的轨道。

 

市调机构TBRC在2024年1月发布的最新报告中预测,2023年全球个人电脑市场规模约为2040.9亿美元,预计到2024年将增长到2123.8亿美元,复合年增长率(CAGR)为4.1%。个人电脑市场规模预计在未来几年将保持增长。到2028年,或将增至2677.1亿美元,复合年增长率为6.0%。

 

数据中心的市场规模和增长潜力则比个人电脑更大。2023年的全球数据中心市场规模约2526.8 亿美元,比个人电脑市场规模大了约20%。预计到 2024 年将增至2749.8 亿美元,复合年增长率 (CAGR) 为 8.8%。未来几年数据中心市场规模的增长也更为强劲。TBRC预计,到2028 年,这一市场的规模将增至3884.1 亿美元,复合年增长率(CAGR) 为9.0%。

 

相比于个人电脑业务,数据中心无论是市场规模、市场竞争格局,还是用户需求、技术发展趋势,不管当下还是未来,都明显更好做,也更赚钱。

 

数据中心有多赚钱?

 

在英伟达最新的2024财年第三季度财报中,快速上升的数据中心业务营收1451.4亿美元,占总营收的80%,完全碾压了英伟达在PC端的传统核心业务“游戏”。对于英伟达来说,数据中心业务不管是当下还是未来,都是最能赚钱,赚钱最快,赚钱最简单的业务。

 

今天的技术趋势强烈指向云计算、大数据、人工智能和机器学习等领域,这些都是数据中心业务的关键驱动力。

 

AI推动着各家公司对高算力、超级算力的需求持续上涨。2023年年中,科技博客GPU Utils对GPU短缺问题做了一次调查,博主Clay Pascal给出的调查结果称,彼时谷歌云拥有大约2.5万块H100,微软云服务Azure可能有1万-4万块H100,甲骨文的情况应该类似。Azure的大部分容量都将流向OpenAI。

 

Clay Pascal预测对于H100的需求,OpenAI可能需要5万块,Meta可能需要2.5万块,大型云厂商可能每家都需要3万块,加上其他一些初创企业,可能总共需要大约43.2万块H100。以每块约3.5万美元计算,所需GPU的价值约为150亿美元。这还不包括中国公司。

 

Clay Pascal在博客中写道:我被告知,对于需要100或1000块(英伟达GPU)H100的公司来说,Azure(微软云服务)和GCP(谷歌云服务)实际上已经没有容量了,亚马逊也接近没有容量了。

 

研究机构 Omdia 的调研结果则称,英伟达在2023年第三季度售出了近50万个A100和H100 GPU,基于H100的服务器的交付周期已延长至36到52周。虽然不知道目前英伟达的补货情况,不过从OpenAI近期接连发生的断网,停账号,以及新功能升级来看,不管补货能力如何,需求的巨大缺口仍在。

 

在巨大的需求面前,英伟达也开始了坐地起价。在芯片行业中,高端产品的利润率通常较高,不少高端产品的利润率可达50%以上。而英伟达的高端GPU利润率高得可怕,投资银行Raymond James的消息称H100 GPU的成本只有3320美元,但英伟达卖出的价格为2.5-3万美元,利润率高达1000%。

 

如今英伟达a100和H100服务器的价格,在国内更是炒得离谱,2023年最后三个月,8卡H100服务器的价格上浮一度达到300万元人民币。

 

英伟达有多需要AIPC?

 

数据中心这么好赚,那是否意味着英伟达会就此减弱对PC市场的关注呢?

 

短期来看恐怕还不会,毕竟在过去30年里,PC一直是英伟达的主战场。在这里,英伟达不仅有优势,有经验,更重要的是有信心。

 

个人电脑市场,特别是游戏和专业图形处理领域,在今天仍然是英伟达重要的收入来源。英伟达2024财年第三季度业绩显示,游戏业务营收为285.6亿美元,同比增长超80%。随着游戏行业的发展和虚拟现实技术的进步,PC市场的增长潜力仍然巨大。

 

另一方面,英伟达在PC市场上,亦处在垄断地位。英伟达在2022年全球独立GPU市场中的市占率为88%,AMD和Intel仅占8%和4%。

 

更重要的是,英伟达在GPU方面丰富的产品线,可以在PC市场上长期发货优势。英伟达提供了一系列针对不同用户需求的GPU产品,包括面向游戏玩家和创作者的Ampere,以及面向数据中心的Hopper3。英伟达还构建了包括驱动程序、开发工具和应用程序在内的全面生态系统。

 

从目前来看如果英伟达的RTX40系列显卡在PC上能够支持新的AI业务,那么未来仍将独占这一百亿级别的市场,甚至通过AI技术的升级,进一步扩大个人pc市场中GPU的装机率,推动全球市场规模更上一个台阶。

 

2023年数据中心业务的增长速度惊人,与AI大模型这一新兴技术的爆发密切相关。然而,AI大模型目前对全球科技市场来说仍处在非常早期的阶段,未来的增长持续性到底如何,对云端服务器的需求如何都未可知。

 

而PC业务,在过去30年中已经走出了一条稳定的增长曲线。由此可想,虽然英伟达势必会重点投资更有利可图且增长潜力更大的数据中心业务,但一定也不会把早已站稳脚跟的PC业务市场拱手让人。

 

RTX 40系列的机遇和挑战

 

AIPC概念在市场上被热炒,很多厂商都在提出把AI落地到本地,从而降低云计算成本、提高安全性和响应效率。这无疑给PC端的GPU创造了新的市场机遇。

 

英伟达在2024 CES上最新发布的GeForce RTX 40 SUPER系列显卡中,GeForce RTX 4080 SUPER在AI视频生成上比GeForce RTX 3080 Ti快1.5倍,图片生成上快1.7倍。SUPER GPUs的Tensor Cores能够实现每秒高达836万亿次AI运算(TOPS),从而为游戏、创作和日常生产力带来变革性的AI能力。

 

NVIDIA AI Workbench则允许开发者快速创建、测试和定制预训练的生成式AI模型和大型语言模型(LLM)。TensorRT-LLM是一个开源库,用于加速PC上大型语言模型的运行。最新版本的TensorRT-LLM现已可用,它为PC增加了更多预优化模型,与其他推理后端相比,运行速度提高了多达5倍。

 

此外,英伟达还发布了生成式AI驱动的语音和动画模型在内的NVIDIA ACE微服务,使开发者能够向游戏中添加智能、动态的数字化角色。此外,NVIDIA还发布了“Chat with RTX”技术演示,它允许AI爱好者通过所谓的“检索增强生成”(RAG)技术,轻松地将PC上的大型语言模型(LLM)连接到自己的数据。

 

这些新品都针对生成式AI做了大量优化,为GPU在未来的AIPC中发力提供了机会。

 

有趣的是,最近有研究团队发现RTX 4090在一定条件下甚至有可能替代服务器级芯片。

 

上海交通大学的研究团队就开发了一个名为PowerInfer的高性能 CPU/GPU 混合 LLM 推理引擎。这款引擎大幅降低了对 GPU 内存的需求,并减少了 CPU 与 GPU 之间的数据传输,从而提高了整体效率。可以在单个 NVIDIA RTX 4090 GPU 上运行大型语言模型(LLM),达到平均每秒产生 13.20 个 token 的速度,峰值速度更是高达 29.08 tokens/s,这与顶尖的 A100 GPU 服务器性能相差无几,仅低 18%,适用于多种 LLM 应用场景。

 

PC端GPU在AI加持下虽然机遇巨大。但在AIPC的大潮流中竞争也比高端GPU更激烈。

 

如今,英伟达要面对的竞争中已经不只有AMD和Intel了。苹果M系列芯片提出的统一内存架构(Unified Memory Architecture, UMA),给生成式AI的预训练过程提供了一种选择。

 

UMA允许CPU和GPU共享相同的物理内存,减少了数据在不同内存之间的复制需求,提高效率。此外苹果的硬件优化使其设备在执行AI相关任务时能耗更低。苹果的硬件和软件高度集成的特性,也为特定的AI应用提供了更好的优化空间。

 

目前,已经有大量AI大模型开发者开始尝试使用苹果电脑训练大语言模型。最新款Mac Studio的顶配版本,已经可以训练700亿参数的LLaMA2模型。

 

不过,虽然UMA具备诸多优势,但它更多地集中在苹果自己的生态系统内,与外部系统的兼容性可能有限。且相比专业的GPU,苹果的硬件可能在处理极其复杂的AI模型时有性能瓶颈。

 

英伟达在AI领域深耕多年,拥有强大的技术积累和广泛的应用生态,这些都是苹果短时间内难以匹敌的。尽管苹果UMA可能在某些方面对英伟达构成挑战,但英伟达的GPU在AI领域依然具有很强的竞争力。

 

PC业务能救中国市场吗?

 

黄仁勋在英伟达2024财年第三季度的财报电话中提到,英伟达20-25%的业务来自中国,美国对中国的高端芯片制裁,将会对英伟达造成严重影响。

 

2023年8月,英国《金融时报》曾报道了一则中国云厂商抢购英伟达高端GPU的新闻,称百度、字节跳动、腾讯和阿里巴巴四家公司合计向英伟达订购了价值50亿美元的AI芯片。而受美国制裁法案的影响,英伟达机会完全无法履行这些订单。

 

为了保住中国业务,英伟达再度开始积极设计3款”中国特供“芯片。

 

某国内服务器制造商近期曾向虎嗅透露,芯片限制政策对国内服务器生产没有影响,因为不管英伟达推出什么芯片,服务器要做的只是适配NV-Link。目前搭载新的“中国特供”芯片的服务器已经接受了很多客户的下单,不过受到美国政府加强管制的影响,原本计划2024年1月到货的“中国特供”,现在看肯定要延后了。

 

有消息称,拜登政府已经开始调查英伟达为中国开发的三款新型AI芯片的具体细节。美国商务部长吉娜·雷蒙多在接受外媒采访时谈道:“我们会检查每一个新芯片的每一个规格,显然是为了确保它不违反出口管制。”

 

雷蒙多说,英伟达“能够、愿意、也应该向中国出售AI芯片,因为大多数AI芯片将用于商业应用”,但“我们不能允许他们运送最复杂、处理能力最高的AI芯片,这将使中国能够训练他们的前沿模型”。她强调说不能向中国企业出售其最先进的半导体,并表示将不断更新出口管制规则。

 

美国对中国的芯片封锁,与其说是在制裁中国,倒不如说是在制裁英伟达。

 

1月7日,美国《华尔街日报》以“英伟达在中国的新困境,客户不想要它的降级芯片”为题,报道了英伟达为应对拜登政府出口限制,向中国出售降级特供版AI芯片,但中国客户不感兴趣的最新困境。

 

事实上,RTX40系列显卡在中国的销售也未必会一帆风顺,有消息称,目前英伟达在中国可以销售的最高端芯片为RTX 4090D,这款新芯片比RTX4090的性能低了5%左右。英伟达介绍该产品将从2024年1月起陆续在中国上市。

 

有知情人士向虎嗅透露,为了缓和与中国客户的关系,英伟达在积极开发“中国特供”的同时,也在与中国服务器厂商协商,希望能在中低端服务器,以及PC业务方面做出一些让步,从而在不取消订单的情况下,用其他产品替代已经下单但不能发货的高端芯片产品。

 

虽然对于中国的AI公司来说,没有全面封锁GPU芯片就等于断了AI研发的电。但这对中国的芯片企业来说,或许是一个好消息。

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年1月14日
下一篇 2024年1月14日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日