Meta要喂饱Llama3,再来49000块H100够不够?

Meta。

Meta。

Meta。

Meta。

优化整个系统(软件、网络等)后,大型集群性能恢复到理想的。

Meta。//engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/

本文来自微信公众号:硅星GenAI(ID:gh_e06235300f0d),作者:周一笑

相信你或多或少对GPT有一定的了解,但我赌你没听说过bGPT。bGPT的意思是byte GPT,即字节GPT。

Meta 近日披露了两个新的 GPU 集群,将用于训练下一代生成式人工智能模型,包括即将推出的 Llama 3,以及 GenAI 和其他领域的人工智能研究与开发。新的集群在硬件、网络、存储、设计、性能和软件等方面进行了定制优化。

Meta 公布的两个 GPU 集群 GPU 总共拥有49152块 GPU,每个集群都装配了 H100 GPU,而 Meta 此前 AI 研究超级集群(RSC)GPU 集群约有16000块 A100 GPU 。RSC 在 Llama 和 Llama 2 的开发以及计算机视觉、NLP、语音识别、图像生成、编程等人工智能模型的开发中发挥了重要作用。

PyTorch 创始人,Meta 工程师 Soumith Chintala 在 X 上分享了关于 Llama 3 的一些细节:使用了 RoCEv2 网络,基于 Tectonic/Hammerspace 的 NFS/FUSE 网络存储,标准版本的 PyTorch,带有一些补丁的 NCCL:补丁和交换机优化使集群具有相当高的网络带宽实现,各种调试和队列监控工具,例如 NCCL 异步调试、内存行重新映射检测等。

Meta 表示,将使用新的 GPU 集群来微调现有的人工智能系统,并训练更强大的新系统,包括 Llama 3。此外,Meta 还透露正在对 PyTorch 人工智能框架进行升级,为支持更大规模的 GPU 训练需求做准备。

一、在算力军备的路上越走越远

新的 GPU 集群是 Meta AGI 路线图的一部分,目标是到 2024 年底,基础设施建设将包括350000块 NVIDIA H100 GPU,计算能力相当于将近600000块 H100 GPU。作为对比,OpenAI 训练 GPT-4,用了大约25000块 A100 GPU。而训练 GPT-5 预估需要30000块到50000块 A100。

要保持在 AI 领域的领先地位,意味着对基础设施的大量投资,对于 Meta 来说,军备还远未结束。根据市调机构 Omdia 发布的报告,Meta 在 2023 年买了超过 15 万块 NVIDIA GPU,与之相当的只有微软,而亚马逊、甲骨文、谷歌、腾讯等都只拿到了 5 万块左右。

2024 年 Meta 预计将购买超过 35 万块英伟达 H100 GPU,H100 售价为 2.5 万至 3 万美元(不考虑溢价),如果 Meta 支付的是较低的价格区间,那么将支付给英伟达接近 90 亿美元。

在 Dot-com 泡沫时代,任何人都可以以相对较低的基础设施成本启动一个网站,个人开发者和初创企业能够借助普及的智能设备和移动网络,在不同成本的范围内推出产品和业务。而现在,似乎只有那些互联网巨头和明星创业公司才能构建 AI 模型。

所有这些公司都从投资者那里拿钱,然后再把钱交给云计算公司和英伟达,这或许就是为什么英伟达的股价在如此短时间内超过 2 万亿美元的原因之一。

二、更多架构细节

关于这两个 GPU 集群的具体架构细节,虽然这两个集群的 GPU 数量相同,通过 400Gbps 端点相互连接,但采用了不同的架构设计。网络方面,其中一个集群采用了一个集群采用了具有融合以太网远程直接内存访问(RDMA)(RoCE)网络结构解决方案,另一个则使用了 Nvidia 的网络架构技术 Quantum2 InfiniBand。

采用 RoCE 的 GPU 集群是迄今为止使用商用以太网基础设施建立的最大的 H100 GPU 集群

这两个集群均采用 Meta 的开源 GPU 硬件平台 Grand Teton 构建,该平台专为支持大规模AI工作负载而设计。据称,Grand Teton 的主机到 GPU 带宽是前代 Zion-EX 平台的四倍,计算和数据网络带宽是两倍,功率需求也是两倍。

Meta 表示,这些集群整合了其最新的 Open Rack 电源和机架基础架构架构,旨在为数据中心设计提供更大的灵活性。根据工程师们的说法,Open Rack v3 允许电源架可安装在机架的任何位置,而不是固定在母线上,从而实现更灵活的配置。

存储在 AI 训练中起着重要作用,尤其是处理大量的图像、视频和文本数据的多模态训练任务。存储方面,Meta 新集群使用自主开发的“Tectonic”分布式闪存存储解决方案满足数据和检查点需求,并与 Hammerspace 合作部署并行网络文件系统,解决了数千个 GPU 数据和检查点的需求。提高开发体验。

优化整个系统(软件、网络等)后,大型集群性能恢复到理想的 90%+ 范围

性能方面,Meta 建立大规模AI集群的原则是同时最大化性能和易用性,通过优化内部作业调度器和网络路由策略,以及与 NVIDIA 集体通信库(NCCL)的改进,提高了大型集群的性能,实现了与小型集群相同的优秀性能。

在实际测试过程中,Meta 比较了小型集群和大型集群的性能,以发现瓶颈所在。在上图表中,展示了大量 GPU 在预期的屋顶线性能消息大小下相互通信时的 AllGather 集体性能(以0~100的标准化带宽表示)

大型集群的开箱即用性能最初很差且不一致。为了解决这个问题,Meta 对内部作业调度器如何根据网络拓扑感知调度作业进行了多项改进,这在减少网络上层流量方面带来了延迟上的好处。

Meta 官方博文中的一个小标题,网友:我懂你意思

Meta 还提到,公司将继续全力支持在人工智能硬件技术栈方面的开放创新,Meta 强调了对开放式计算和开源技术,新的集群均基于 Grand Teton、OpenRack 和 PyTorch 等平台构建而成。

三、离 Llama 3 更进一步

在 AI 领域,Meta 去年推出了大型语言模型 Llama 2、定制芯片 MTIA、文生图广告工具以及聊天机器人Meta AI 。

其中,Llama 2 的发布以及开源可商用是开源模型社区的里程碑,扎克伯格曾表示,虽然 Llama 2 不是行业领先的模型,但它是最好的开源模型,而 Llama 3 及以后的版本的目标是构建处于行业领先地位的模型。

根据 The Information 的报道,Meta 计划于 7 月发布 Llama 3,可能达到超 1400 亿参数,比 Llama 2 模型的最高参数翻了一倍。据内部人士透露,Llama 3 相对于 GPT-4、Gemini 和 Llama 2,放宽对安全限制的设定,即所谓的“安全围栏”。

这意味着在处理具有争议性的问题时,Llama 3 旨在提供更好的回答。Meta 的这一举措显然是希望至少能够提供有关用户查询的相关上下文,而不是简单地忽略或拒绝回答用户提出的问题。简而言之,目的是提升用户体验,通过提供更多信息,而不是简单地限制对话。

新的基础设施,更多的 GPU 储备,扎克伯格 All in AGI 似乎比投入元宇宙更靠谱,股价也迎来上涨,招聘 AI 人才时也可以底气更足地说自己是“GPU RICH”,看上去一切都走上了正轨。

只不过还是没躲过美国网友的无情(无脑)吐槽:“堆了这么多算力,为啥在 IG Reels 上刷短视频还是比不上 TikTok ?”

参考链接:https://engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/

本文来自微信公众号:硅星GenAI(ID:gh_e06235300f0d),作者:周一笑

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年3月15日 10:18
下一篇 2024年3月15日 10:29

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日