“烧光”70000亿美元,与英伟达、台积电为敌

每万片晶圆产能,不同晶圆厂的建厂投资总额,单位:美元

一句话总结:每10000片GPU晶圆,需要800片CPU晶圆,5.7万片DRAM晶圆,3.3万片中介层晶圆,3.3万片SoIC+CoWoS先进封装,5.7万片HBM封装,对应的投资额,即1*71+0.08*50+5.7*60+3.3*10+3.3*8+5.7*10≈476亿美元。

有朋友问:Leslie,你是专业建厂出身,之前传出山姆·奥特曼要投资7万亿造芯,虽然本人不明确回应,但大媒体传出来,一定不是空穴来风。如果有7万亿美元,造划算,还是买划算?如果造,可能要考虑哪些方面的投入及因素?

奥特曼的“7万亿美元”的传闻的确是石破天惊,构想很有意思,回答这个问题得具备丰富的半导体建厂,工艺,运营等一系列知识,我们可以尝试推算一下,如果手握7万亿美元,如何将这笔钱“合理地”花出去?

每万片晶圆,建厂投资150亿美元

首先,第一步必然是生产GPU逻辑芯片,这样一来需要先盖一座逻辑晶圆厂。我们以台积电最先进的2nm工厂为例,看看每万片晶圆的资本投入情况。

按投资额划分,晶圆厂各项投入比例大致为:制程设备:77%,土地与建筑物:4%,洁净室:5%,水电气化学品等供应系统设施:14%。

光刻机是晶圆厂最大的制程设备投资项目之一,占比在20%左右,而且2nm需要用到EUV光刻机(负责其中25层的光刻),成本相对更高,占比预计会提升至24%左右。

目前台积电的2nm还是采用低数值孔径的EUV,对应ASML最新款的NXE:3800E,其每小时产出晶圆(WPH,Wafer per hour)大致在190-200片的区间,单台设备每月产能预计2400片左右(具体计算见下表注释),这意味着每万片晶圆的产能,需要4台ASML的NXE:3800 EUV光刻机。而除了EUV负责的25层外,其余层还需要3台每小时产出晶圆295片的NXT:2100,以及一台KrF DUV光刻机。

*单台设备月产能=每小时产出晶圆数*运行时长*% customer efficiency(效率)*% doseage headwind(vs.30mJ)*EUV层数*30天

按照ASML提供的数据,NXE:3800E售价2亿美元左右,NXT:2100i约7500万美元,KrF DUV约1500万美元,这意味着2nm工艺的晶圆厂,每万片晶圆产能,光刻机(含维修以及备件)的投入预计在13亿美元左右。

按照光刻机的投入占全部制程设备24%的比例倒推,制程设备的总投入为54亿美元,而制程设备占晶圆厂全部投资额的77%,以此倒推,2nm节点,每万片晶圆产能,晶圆厂总投资额大致为71亿美元

每万片晶圆产能,晶圆厂总投资额划分,单位:美元

建完GPU逻辑芯片厂之后,还要考虑生产HBM的DRAM厂的建设。

我们以最先进的1gamma制程为例,尽管DRAM的EUV光刻层有所减少,但每万片晶圆需要的设备数量却不降反增,尤其是刻蚀设备,整体估算下来,1gamma制程的DRAM厂投资额大概在逻辑芯片晶圆厂的总投资额的85%,即60亿美元左右。

补充说一下,DUV时代,DRAM厂的投资额大概为同级别的逻辑晶圆厂110%-120%,直到7nm节点,逻辑厂开始大量使用EUV光刻机,每万片晶圆产能的投资额开始反超DRAM厂。

解决前段的GPU逻辑芯片和DRAM存储芯片之后,还要解决后段的封装问题,包括CoWoS先进封装、HBM封装两部分。

目前,最先进的AI芯片采用的是SoIC+CoWoS封装技术,HBM4将会采用混合键合(Hybrid Bonding),每万片晶圆的投资额将大幅提高至10亿美元(含设备厂房)。另外,先进封装涉及到的中介层,也还需利用DUV构建配套的65/45nm的前段晶圆厂,投资额为每万片晶圆8亿美元。也就是说,封装部分,每万片晶圆的整体投资额预计在18亿美元左右。

每万片晶圆产能,不同晶圆厂单位投资额,单位:美元

这个花钱的活涉及到的数据比较多,帮大家做一个小总结,每万片晶圆产能,或者说单位投资额,对应2nm制程的逻辑晶圆厂、1gamma制程的DRAM厂、封装厂(先进封装+中介层,10亿美元+8亿美元)方面的投资,合计在150亿美元左右

年产600万颗GPU,成本500亿美元

但是,GPU逻辑芯片、HBM内存以及中介层,对应的比例不是1:1:1的关系,所有总投资额还要在单位投资额的基础上,按照系数增加,这个系数大致可以从一颗GPU,所需要的CPU、HBM内存、中介层的数量来推算。

以英伟达最新的Blackwell架构GPUB200的Die size(814mm²)为例,每片晶圆可以切80颗芯片,按照台积电最好的工艺,良率大致在65%左右,即每片晶圆可以切50颗Good Die。

附带说一下,由于GPU逻辑芯片是大芯片,为了提高光刻的曝光清晰面积,物镜成像的景深就需要控制在相对较大水平,这会导致分辨率降低,是缺陷变多,良率下降的重要原因。

英伟达的B200搭配了Grace CPU,2颗GPU搭配1颗Grace CPU,那么50颗GPU,需要搭配25颗CPU。按照3nm制程计算,以CPU的Die Size和良率预估,一片晶圆可以切300颗左右的CPU芯片,这意味着一片GPU晶圆,需要搭配0.08片CPU晶圆。

目前3nm节点,每万片晶圆的投资是2nm节点的70%,大致50亿美元,也就是说投入71亿美元生产10000片GPU晶圆的同时,还要对应投资71亿美元×70%×0.08,即4亿美元,用于CPU晶圆的生产。

AI芯片的另一个重头戏即HBM,英伟达的H100、H200标配6颗,到Blackwell架构的B200,则采用了8颗HBM3e内存。按照台积电最新的路线图,2026年,一颗GPU可以搭配12颗HBM内存,届时HBM的规格还将从12层堆叠的HBM3e,升级至16层堆叠的HBM4/4e。

如前文所述,2nm晶圆可以切出50颗GPU逻辑芯片,按照B200的标准,每片晶圆需要搭配400颗HBM3e内存。目前,1gamma制程的DRAM芯片,每片晶圆大概可以出1200颗DRAM颗粒,而按照85%的良率计算,最终可以得到1000颗DRAM颗粒,之后要将这些DRAM颗粒封装成12层堆叠的HBM3e内存。当下封装的良率大概在80%,即一片DRAM晶圆可以出1000÷12*80%,约等于70颗左右12层堆叠的HBM3e内存。

也就是说,一片GPU晶圆,除了需要0.08片CPU晶圆,还需要5.7片DRAM晶圆。未来随着GPU逻辑芯片搭配HBM颗粒数进一步增加,尤其是堆叠数量从12层提升到16层,GPU:DRAM晶圆(1:5.7)的比例,还会进一步扩大。

按现有先进封装的中介层尺寸,一片晶圆可以完成15颗GPU逻辑芯片的封装,对应一片GPU逻辑芯片的晶圆,需要3.3片晶圆的先进封装。

每万片晶圆产能,不同晶圆厂的建厂投资总额,单位:美元

一句话总结:每10000片GPU晶圆,需要800片CPU晶圆,5.7万片DRAM晶圆,3.3万片中介层晶圆,3.3万片SoIC+CoWoS先进封装,5.7万片HBM封装,对应的投资额,即1*71+0.08*50+5.7*60+3.3*10+3.3*8+5.7*10≈476亿美元。

每10000片GPU晶圆所有配套芯片的生产工厂需要耗费476亿美元,加上其他杂七杂八费用直接算整数为500亿美元,换算成GPU芯片数量,为每月50万颗,一年600万颗。

8年半可以烧完7万亿美元

投资500亿美元,一年生产600万颗GPU,这是个什么概念?可以根据台积电CoWoS产能,来推算全世界的AI GPU的量,然后再进行对比。

2024年,台积电CoWoS总共31万片的产能,其中95%都是给AI GPU,只有1万多片是给Xilinx的FPGA,剩下的近30万片产能被英伟达、AMD以及全球互联网大厂诸如Google,AWS,Meta,Mircosoft自研的ASIC芯片瓜分。

也就是说,台积电CoWoS产能代表全世界AI芯片产能,2024年80%的GPU还是只使用2.5D CoWoS,英伟达的H100大约是每片29颗,其他自研ASIC则都高于这个标准,有的还超过40颗,目前只有AMD的MI300使用SoIC封装,每片约为15颗。

综合下来,今年台积电30万片CoWoS产能,对应大约是1000万颗GPU,这也就是2024年全球AI GPU的大致总量。前面提到,投入500亿美元,每年可生产600万颗GPU,也就是说,在2024年,想要生产满足全世界需求的1000万颗AI GPU,总投入需要830亿美元。这个水平相当于台积电2-3年的资本支出,也大概是台积电Fab20A,一座月产12万片的2nm芯片工厂的总投资额。

投入830亿美元,就能生产出2024年全世界所需要的AI芯片,想要把奥特曼的7万亿美元花完,还有很多工作要做,毕竟830亿美元也仅仅是建设芯片工厂的费用。

芯片厂、DRAM厂、封装厂都盖完之后,就要考虑生产服务器的工厂建设,还得盖许多座类似工业富联的这样的工厂。不过这类服务器组装工厂与芯片工厂相比来说,只是小巫见大巫,把AI服务器所有产业链上的工厂全部建设起来,包含服务器,光模块,液冷,铜线材,各式各样的模具厂,年产1000万颗GPU,按单个服务器8颗GPU算,即120万台服务器,所有下游工厂的总投资额大致为170亿美元。加上上游芯片工厂的830亿美元,1000亿美元则是2024年全球所有AI 芯片+服务器出货量所需的工厂建设总成本。

上下游工厂建设只是开端,工艺还需要持续的研发投入,包括设计、制造相关的研发费用,覆盖GPU、CPU、HBM、先进封装等等环节,这部分可以打包算一下英伟达、AMD、台积电、SK海力士的研发总额,大致300亿美元。再加上服务器硬件研发、比如光模块、液冷等等,研发部分的费用满打满算可以达到500亿美元。

而对于OpenAI,在推进AGI的路上,也需要持续进行模型研发投入,每年在这上面的费用至少200亿美元。

芯片部分的研发+AI部分的研发,每年的总投入至少在700亿美元,如果要更快推进,加大研发投入是必然,所有推进AGI终极目标的研发投入,每年估算需加大投入到1000亿美元。

以上的研发费用还不包括训练费用,且训练需要大量的水电资源消耗,这部分基础设施同样需要自建。

欧美地区目前建设1KW核电机组的成本大约4000美元,每百万千瓦的核电机组一年发电量约为8.6亿度电,根据IEA(国际能源协会)计算,2027年全球人工智能将耗费1340亿度电,所以要建设155组百万千瓦的核能机组,这需要6000亿美元左右。

根据加州大学河滨分校的研究,2027年人工智能将耗费66亿立方米的清洁淡水,大约是全英国一半的用水量,主要场景来自于服务器的冷却,发电以及芯片制造这三大耗水环节,建设相应的水处理厂费用大约为1000亿美元。

相比前面的投资,制造环节的人力成本规模相对较小,重头戏主要在芯片的设计,包括模型研发部分。

前段晶圆厂把人力配置拉满 , 每万片约需要1000人,后段约1500人,2000万颗GPU年产能的所有前段工厂(含DRAM,中介层等)大约需要2万人,人均年芯为15万美元,后段封装需要3万人,人均年薪约为7万美元,加上5000名各类芯片制造研发人员,人均20万美元,每年芯片制造的人员薪资费用总共60亿美元。

芯片设计以及大语言模型的人力成本方面,按照英伟达+OpenAI+微软服务器部门的1.5倍计算,约为5万人,人均年薪30万美元,共150亿美元涉及服务器所有硬件制造的工厂人数为15万人,电力以及用水保障设施人员15万人,共30万人,人均年薪8万美元,总共为240亿美元。

以上所有环节,人力薪资成本为每年60亿+150亿+240亿,共450亿美元。

物料成本方面,GPU及相关芯片,再加上所有服务器硬件的成本为2000美元/颗,年产2000万颗,即400亿美元。服务器的运营费用方面,人工420亿美元+物料成本400亿美元+其他杂费180亿美元,取整数1000亿美元。

OpenAI年产2000万颗GPU的投资额及各项费用推算,单位:美元

以上即奥特曼亲自下场造芯涉及到的主要环节的费用的拆解。如果替奥特曼花这笔钱,理想的方案是:

  • 2000亿美元建设年产2000万颗GPU(2024年全球约1000万颗)以及涉及所有服务器硬件的制造工厂,然后为了推进AGI的终极目标每年投入1000亿美元的研发投入,相关设计、研发、制造总人力成本1000亿美元,投资7000亿建设能源以及用水的基础设施。

  • 同时编列2000亿美元现金应付税费以及各种杂费或者没有计算到的费用,最后保留4000亿美元作为可能漏算的预备金,如此一来,大约需要1.7万亿美元,就可以覆盖2000万颗AI GPU所有制造工厂的启动资金。

运营资金方面,要保持每年1000亿美元的芯片以及硬件新产能投入,并持续推进摩尔定律,提升晶体管密度。每年新增2000亿美元的新电力及新用水投入,再加上人工以及物料等每年约1000亿美元,这样的话,每年的极限是新增7000亿美元的运营费用。

如此一来,不到2万亿美元即可覆盖2024年全球AI芯片需求量两倍的所有相关制造,能源基础设施和运营费用,每年新增控制在7000亿美元的水平,这笔预算大致可以再烧7.5年。

怒砸2万亿美元,拥有全世界AI GPU两倍产能 ,奥特曼也无法垄断全球人工智能——OpenAI的模型领先全球,建立在以台积电为代表的全球最先进的芯片制造,以及以英伟达为代表的GPU芯片设计的基础之上。如果奥特曼另起炉灶,全方位生产AI芯片,几乎是得罪了目前全球的芯片企业。

作为“旧势力”,台积电、英伟达以及众多芯片设计公司,有可能会扶持OpenAI的所有竞争对手,包括硅谷乃至于全球的大大小小做大模型以及AI应用的企业,诸如老对手DeepMind加上谷歌,AWS,Mircosoft等巨头,以及Stability、OpenAI前创始人成立的Anthropic等创企。

即便OpenAI的芯片设计与制造能力与台积电、英伟达相当,面对全球所有大小模型与算法的一众企业,本身就不一定有绝对优势,更何况带着7万亿美元下场造芯片,站在英伟达、台积电的对立面。

客观地说,如果不考虑生态,GPU设计公司倒不是那么无可替代。在GPU设计上,没有英伟达还有AMD,甚至还有Cerebras这类设计整片晶圆面积远远超过传统GPU的AI芯片设计公司,但在芯片制造上,目前台积电呈现一骑绝尘的态势。

以2024年为例,台积电可生产每平方毫米高达2.84亿晶体管密度的N3P工艺,排名第二的英特尔还只能生产每平方毫米1.8亿晶体管的Intel 4,第一跟第二之间已经出现了代差,如果在最高性能的芯片上不使用台积电工艺,在基础上就落后竞争对手一个世代。

芯片制造是无法用钱堆砌,更需要技术积累的行业,往死里砸钱砸人,最快也要三年才能建设好芯片工厂并生产出芯片。对OpenAI来说,假设“7万亿美元”真实存在,面对“旧势力”的反扑,也至少要撑过这三年。

本文来自微信公众号:腾讯科技(ID:qqtech),作者:Leslie Wu

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年5月17日
下一篇 2024年5月17日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日