Meta,正在成为一家彻头彻尾的AI科技巨头

Meta称之为下一代训练及推理加速器,为解决Meta的AI负载而定制的芯片,将主要用于Meta的广告模型中的排行和推荐。

Meta正在彻头彻尾地成为一家AI公司,芯片(MTIA)-数据中心-软件(Pytorch等)-基础模型(Llama)-超级应用(Facebook/WhatsApp/Instagram),所有这些,正在让Meta从一家社交媒体巨头,变成了一家真正的科技巨头。

Meta公布了自研芯片MTIA的新版本,不仅用于社交媒体中内容与广告的排行和推荐,而且能用于未来更复杂模型的训练和推理。

Meta去年5月份公布了7纳米的MTIA v1版本,已经开始用于数据中心,这次透露细节的5纳米的MTIA v2版本,其综合性能提升了3倍。

Meta称之为下一代训练及推理加速器,为解决Meta的AI负载而定制的芯片,将主要用于Meta的广告模型中的排行和推荐。Meta的场景负载,每天要处理上百亿次数据推理。MTIA v2不仅可以改善用户对产品和服务的体验,还提升了计算效率,以支持开发者构建AI模型。

MTIA v2架构

与前代相似,第二代MTIA包含64个被称为PE (Processing Elements)的计算模块,这些模块针对AI推理任务进行了优化。每个PE都有一个专用高速缓存,可用于存储数据。将内存放置在逻辑电路附近可减少数据在两者之间传输的距离,从而缩短传输时间并加快处理速度。集成在每个PE计算模块中的缓存从128KB扩展到384KB。

Meta工程师在博客文章中详细说明:“通过专注于提供超大的SRAM容量(相对于典型GPU而言),即使批量大小有限,我们也能保持高效的资源利用率,并在面对大量潜在并发任务时,仍能提供充足的计算能力。”

另一个提高新芯片性能的因素是一系列“与稀疏计算相关的改进”。AI推理芯片可以移除对于结果来说非必需的数据,从而加速计算。

Meta还开发了一套定制软件工具,核心是一个名为Triton-MTIA的系统,可以将开发人员的AI模型,转换成适合在自己芯片运行的形式。它部分基于Triton,这是一个由OpenAI开发的开源AI编译器,带有自己的编程语言。Triton-MTIA还与其他开源技术集成,包括PyTorch,这是一个由Meta创建的流行的AI开发框架。

Meta称,相比采购GPU,因为它控制了整个技术栈,效率更高。但Meta并不想用自定义芯片取代英伟达的GPU,而是强调互补关系。

一个月前,Meta 宣布推出两个 24k GPU 集群(共 49152 个 H100)

之前,Meta用于训练Llama和Llama2的集群,是一个 AI 研究超级集群(RSC),配备 16000 个 A100 GPU。新集群建立在 RSC 的成功和教训之上,能够支持上一代所无法胜任的更大、更复杂的模型,如Llama3。

Meta提出了一个雄心勃勃的基础设施计划:“我们正在设计自定义芯片,使其能够与现有基础设施以及未来更先进的硬件(包括下一代GPU)协同工作。实现我们的雄心,需要投资计算芯片,同时也要投资内存带宽、网络和容量,以及其他下一代硬件系统。”

Meta今年将花上数百亿美元,用来建立算力基础设施,其中很大一部分用来采购约35万张H100卡,使其总算力达到等效65万张H100卡。

显然,Meta正跻身于亚马逊、微软、谷歌之列,通过研发定制芯片,构建软件系统,从基础设施到应用,端到端地解决自己的问题。

就等Llama3了 

最近的开源模型的声势,大有压倒闭源之势:

马斯克开源了Grok-1,3140亿参数,

Mistral开源了8X22B, 2620亿参数,

都是MoE(专家混合模型)

Cohere推出了 Command R+,1040亿参数,并且成为首个在大模型竞技场上(Arena Elo)击败GPT-4的权重开放模型。其中R+的意思是“RAG优化模型”。此外,它还包括10+种语言,包括英语、中文、法语、德语等;并且能使用工具完成复杂业务流程的自动化。

如果说直到去年底开源模型的目标是追赶GPT-3.5,今年开源的目标开始“欺负”GPT-4了。

2024年仅仅过了一个季度,基础大模型领域出现了令人兴奋的变化。Claude3和Command R+分别成为最强的闭源模型与权重开放模型,分别超过和赶上了GPT-4。

而Meta的Llama3也将在几周内发布。据提前透露出来的消息,它将具备更强的推理与规划能力,也有更强的记忆力,处理更复杂的任务。Meta将推出不同规格的模型,以适用于不同的场景。

对于新推出的LLama3来说,部署到硬件上将是重要的目标之一,如Meta与雷朋定制的智能眼镜,可能也包括VR/AR设备Quest。

尤其是推理能力,成为LLama3和GPT-5都要着重解决的问题。只有更严密的推理能力,大模型才能成为智能体,有条理地完成多步骤的任务,才能真正让用户放心使用。

Meta正在彻头彻尾地成为一家AI公司,芯片(MTIA)-数据中心-软件(Pytorch等)-基础模型(Llama)-超级应用(Facebook/WhatsApp/Instagram),所有这些,正在让Meta从一家社交媒体巨头,变成了一家真正的科技巨头。

本文来自微信公众号:未尽研究 (ID:Weijin_Research),作者:未尽研究

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年4月11日
下一篇 2024年4月11日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日