本文来自:华尔街见闻,作者:卜淑情,原文标题:《GPT成“吃电狂魔” 日耗电量高达50万度 马斯克“电荒”预言成真?》,题图来自:视觉中国
最近一段时间,公众开始注意到,当前蓬勃发展的生成式AI技术需要耗费大量的电力。
据《纽约客》当地时间9日报道,荷兰国家银行数据专家Alex de Vries估计,OpenAI旗下聊天机器人ChatGPT每天消耗超过50万千瓦时的电力,用于处理约2亿个用户请求,相当于美国家庭每天用电量的1.7万多倍。
谷歌的搜索引擎同样需要大量的电力。
据de Vries估计,若谷歌在每次搜索中都使用AIGC(生成式人工智能技术),其年耗电量将增至约290亿千瓦时,这一数字超过了许多国家的一年用电量,包括肯尼亚、危地马拉和克罗地亚。
而随着AI芯片的不断更新换代,其所需的电力也越来越多。
比如,据戴尔公司首席运营官Jeff Clarke近日透露,英伟达将于2025年推出载有“Blackwell”架构的B200产品,功耗或将达到1000W,较H100增加40%以上。
媒体的曝光在一定程度上呼应了一些AI大佬最近的担忧。
AI大佬集体发声:太缺电了
前不久马斯克在接受媒体采访时预言,AI行业将在明年迎来电力短缺,届时将“没有足够的电力来运行所有的芯片”。
很容易预测,接下来短缺的会是降压变压器。
你得给这些芯片供电。如果你的电力供应输出是100到300千伏,而它必须一路降压到0.6伏,这是一个很大的降压过程。
OpenAI创始人Sam Altman在世界经济论坛上也表示:
我们需要的能源确实比我们之前想象的要多得多。
随着生成式AI技术的快速蔓延,芯片对电力的需求大幅飙升。相关数据显示,十年前全球数据中心市场的耗电量为100亿瓦,而如今1000亿瓦的水平已十分常见。
另外,根据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。
按照当前的趋势,de Vries预计,到2027年整个AI行业每年将消耗85~134太瓦时(1太瓦时=10亿千瓦时)的电力。
de Vries表示,他对于人们在面对大量机器学习的同时,人类学习的缺失感到失望。
在我看来,从政策角度讲,短期到中期内,唯一现实的措施是要求企业披露(用电数据)。
加密货币领域耗费了相当长的时间才达到这一点,而人工智能没有能更早做到这一点,让我感到失望。
根据de Vries此前编制的比特币能耗指数,比特币挖矿如今每年消耗1450亿千瓦时的电力,这一数字比整个荷兰的年用电量还要多,发电导致的二氧化碳排放量达8100万吨,超过了如摩洛哥等国的年排放总量。
AI电力需求飙升之际,能源赛道迎来新一轮机会?
有策略师分析表示,AI技术发展利好能源资产:
越来越多的人开始意识到,大型人工智能服务器群将需要大量能源,这正在提高一些投资者的兴趣,开始将投资范围扩大至电力、油气在内的相关能源领域,核能也开始受到关注。
英伟达CEO黄仁勋在最近的一场公开演讲中明确表示:
AI的尽头是光伏和储能!如果只考虑计算机,我们需要烧掉14个地球的能源。
Altman也发表了类似观点:
未来AI的技术取决于能源,我们需要更多的光伏和储能。
我们需要的是核聚变,或者是大规模的、成本极低的太阳能加储能系统,规模之大前所未有。
挑战同样存在!
以美国为例,清洁能源、AI、数据中心、电动汽车、挖矿等多种产业的增长,让原本陷入停滞的美国电力需求再度“起飞”。但即使被誉为世界上“最大的机器”,美国电网也似乎无法应对这突如其来的变化。
有分析师指出,美国70%的电网接入和输配电设施已老化,某些地区电网传输线路不足。因此,美国电网需要大规模升级,如果不采取行动,到2030年美国将面临一道难以逾越的国内供应缺口。
本文来自:华尔街见闻,作者:卜淑情