训练Llama3产生万吨碳排放,费电还不环保?

Meta的超级算力集群

Llama3就是由最新的H100集群训练的。按照惯例,Meta公布了Llama3系列模型的碳足迹,其中训练Llama3-8B约产生了390吨二氧化碳,训练Llama3-70B约产生了1900吨。那么,在相同的算力集群上花2700万个GPU时训练Llama3-400B+的碳排放将达到8013吨二氧化碳,整个Llama3系列超过万吨碳足迹。

Meta在开源了Llama3系列两个较小参数规模的版本后,扎克伯格放出口风,已经开始准备训练Llama4了,要继续砸100亿美元甚至1000亿美元在算力基础上设施上。

小扎不差钱为自己的“星门计划”买得起数十万张GPU,但是数据中心会面临日益严峻的电力供应和二氧化碳排放问题。

Meta为训练Llama3 系列的两个数据中心电力近100兆瓦,产生了超过万吨的二氧化碳排放。今年它的AI算力集群组合,将达到1吉瓦(GW)电力规模。

大模型扩展继续生效

数据中心能源扩展,对应着大模型扩展定律。后者驱动着算力集群规模的升级,也驱动训练下一代SOTA模型的权力,逐步收敛到科技巨头手上。

从Llama2到Llama3,最大参数规模扩展了近6倍;已公布的预训练数据集规模,从2T token扩展到15T token,使得Llama3-8B的水平,与Llama2-70B基本相当。而且,Meta在训练中发现,模型性能提升仍未饱和。

Meta的AI研究超级集群(RSC)经历过至少两次大规模升级。2017年时是2.2万张V100,至2022年中是1.6万张A100,训练了Llama与Llama2;2023年初,升级为两个各超2.4万张H100的算力集群,并计划在年底建成相等于总计60万张H100算力基础设施。

Meta的超级算力集群

Llama3就是由最新的H100集群训练的。它也承担Meta其他模型的训练任务,如Reels模型、Facebook新闻推送和Instagram推送模型的训练。但当前所有的算力都已经集中到更大的4050亿参数规模的Llama3-400B+的训练中。

在英伟达B200发布后,Meta马上宣布大量采购,用于下一代大模型的训练。这将是该公司AI研究超级集群的第三次重大升级。

1GW电力的超级算力集群组合

要让如此庞大的算力集群跑起来,不仅仅需要GPU,还需要CPU、内存与各种网络连接组件。每个数据中心都会根据自己的实际应用场景选择合适的组件,并调整各自的占比与架构。

英伟达自己搭建了一个H100为中心的算力集群DGX SuperPOD,供行业参考,共用到了127个DGX H100服务器,每个服务器内含8个H100的GPU。根据它公布的组件构成,要运行这样一个算力集群,预期平均电力(EAP)达到了1.41MW。也就是在现实环境中跑起来,算力集群中的每个H100要正常工作,理论上需要均摊到1389W电力。

如果完全按这套标准来构建算力集群,那么2.4万张H100,它的关键IT电力(Critical IT Power Consumed),即保证计算正常执行的所有相关IT设备的电力,约为33兆瓦(MW)

但要维持如此庞大的算力集群的运行,照明和冷却系统等同样重要。它们的电力占比越低,说明数据中心的电源使用效率(PUE)越高。这种关系可以通过比较数据中心的总电力与IT设备的实际电力来衡量,即:

PUE = 数据中心实际总电力 / 关键IT电力

当前,大多数 AI 数据中心的目标是PUE低于1.3。按这个标准计算,2.4万张H100的单一数据中心,在完全投入使用的过程中,整体电力将接近45兆瓦。等效60万张H100的算力基础设施的组合,整体电力超过了1000兆瓦,即1吉瓦。一个三峡大坝,大约能跑20个这样的超级算力集群组合

扎克伯格在最近一次采访中,对下一代AI算力集群的能源扩展感到担忧。他称,目前很多单一数据中心的整体电力规模,大约在50兆瓦和100兆瓦之间。“当我们谈论300兆瓦、500兆瓦或者1吉瓦的时候,情况就不同了。目前没有人能够建造出一个吉瓦级别的单一训练集群。”

这是工程问题,也是政策问题。征地、环保、供电等,这些问题很快将随着大模型扩展定律的持续生效而到来。

Llama3的碳足迹过万吨

能源扩展意味着碳足迹的扩展。按照惯例,Meta公布了Llama3系列模型的碳足迹,其中训练Llama3-8B约产生了390吨二氧化碳,训练Llama3-70B约产生了1900吨。一年前,Meta训练Llama2-70B约产生了290吨二氧化碳。

那么,训练中的Llama3-405B的碳足迹会是多少?这首先要知道训练这样一个模型,大概需要多少GPU时(即实际投入运算的GPU数量与每块GPU具体运算时间的乘积,也可以直观地理解为用一块GPU需要跑的总时间),也就是需要知道在其他条件不变的情况下,训练这样一个模型大概需要多少算力。

Meta透露,在训练Llama3-8B时,共花了130万个GPU时,吞吐量为400 TFLOPS(每秒万亿次浮点运算)。那么,它的训练算力需求约为2e24FLOPs。同理,Llama3-70B的训练算力需求约为9e24FLOPs。

如果套用未尽研究去年在《生成式AI 2023》报告里采用的经验公式,即6×参数规模×token数量,则训练Llama3-8B所需算力约为1e24 FLOPs,训练Llama3-70B所需算力约6e24 FLOPs,与前一种方法基本相当。

如果Llama3-400B+的训练环境不变,它所需算力可能达到了约40e24 FLOPs级别,相当于2700万个GPU时。

预训练大模型的碳足迹,相当于:训练阶段的电力消耗X数据中心的碳排放因子。训练阶段的电力消耗,Meta简化为“训练模型所需的总GPU 时间”与“每个GPU设备的TDP”以及“数据中心的PUE”,但没有披露数据中心的PUE,也没有披露数据中心的碳排放因子,即消耗的这些电有多少来自清洁能源。

由于训练Llama3系列模型的算力集群,短期内PUE与碳排放因子不会剧烈波动,我们可以将这些变量综合简化为特定系数。那么,在相同的算力集群上花2700万个GPU时训练Llama3-400B+的碳排放将达到8013吨二氧化碳,整个Llama3系列超过万吨碳足迹。

尽管Meta是目前少有的仍然愿意公开谈论碳排放的大模型厂商,但它的碳足迹算法还是避重就轻了。事实上,它只计算了H100运行中释放的碳足迹,还没有包括内存等其他关键IT设备的碳足迹。如果加上,它的碳排放还将扩大约1倍。它也没有计算制造和运输这些关键IT设备的过程中涉及的总碳排放量,即范围三。一些人大致估计,范围三约占大模型训练一次的碳足迹的10%。

Meta很骄傲地表示,它选择了开源,就意味着其他人没必要再重复排放预训练部分的二氧化碳。

本文来自微信公众号:未尽研究 (ID:Weijin_Research),作者:未尽研究

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年4月23日
下一篇 2024年4月23日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日