赶超英伟达?都2024年了,居然还炒作SRAM

SRAM的优点很明显,快,非常快,不仅远远超过NAND,更是超过DRAM的速度,所以SRAM的特点就是快。

在PC,HPC上的CPU里面,SRAM面积还不小哦,普遍占到一半,但是在手机这种对功耗要求比较高的CPU里,SRAM就比较小了。

实际情况就是大容量的SRAM要上,毕竟这个直接提升性能比较明显,但是HBM也绝对不是它的对立面啊。

好家伙,只能说好家伙。都2024年了,SRAM概念居然能成为风口,属实没有想到。

今天芯片圈有个爆炸性的消息,叫大模型推理最快芯片出世,创始人喊话奥特曼,“你们太慢了!”

这家初创公司叫Groq,原来谷歌TPU的人马,自研芯片主要是加速推理卡那种。

按他们的说法,他们的推理速度比英伟达的GPU快了十倍,但是成本却只有十分之一,那一来一去岂不是差百倍?

看起来非常棒。

目前Groq公司的新款加速卡,可以支持Mixtral 8x7B SMoE,LIama 2的7B和70B这三种模型,并且可以直接体验Demo。

目前测试下来效果接近每秒500tokens,当然他们只说快,没说内容真实性和准确性,内容概不负责的那种。

除了Demo演示,Groq现在也支持APi访问,并且完全兼容,可以直接从OpenAI的APi切换。

免费十天,一共100万tokens可以用。价格方面也表示,未来肯定低于市面上同类价格。

总之,看起来非常棒。

本来呢,这就是国外初创公司新产品自我宣传、自我展示的过程,和国内没有半毛钱关系。

但是国内突然有一个板块跟打了鸡血一样猛干猛干。我一看,原来是SRAM芯片板块,好几个股票都直接被干上20cm。

我仔细去看了一下,原来是Groq表示该新产品采用14nm制程,搭载了230M的SRAM来保证带宽,片上系统内存带宽达到了80TB/s。

然后国内这些小作文写手,居然开始狂吹SRAM,说什么拳打DRAM,脚踢HBM。

好家伙,是真当行业里没人懂是吧。

先来科普一下SRAM是什么芯片。

SRAM的中文全名叫静态随机存取存储器,和DRAM也就是内存,在技术上略有不同。

SRAM是易失性内存,也就是说断电不保存数据,这点DRAM内存条也一样,NAND FLASH刚好相反,它是非易失性的,断电还能保存数据。

SRAM的优点很明显,快,非常快,不仅远远超过NAND,更是超过DRAM的速度,所以SRAM的特点就是快。

你可以理解成SRAM是一个高速搬运的临时仓库,DRAM是次一级稍微慢一点的临时仓库,NAND是一个比较慢的永久仓库。

三者共同组成了计算机的存储架构,严格意义上来讲,SRAM+DRAM叫内存,NAND以及过去的HDD机械硬盘叫外存。

而前段时间炒得火热的HBM高带宽内存,实际上是DRAM的超级加强版,它的本质是通过堆叠多颗DRAM的芯片来提供更高的带宽和容量。

具有多层堆叠结构的HBM

历史上,SRAM作为单独一颗芯片存在是有过一段历史期的。

但是到80年后,90年初基本就消失淘汰了,现在只有在极少数特殊的应用场合才能看到它。比如128M、256M的产品依然有,甚至还有512M。干嘛呢?新款芯片测试和研发的时候搭载一个SRAM,主要就是研发测试用,谈不上商业化,市场化。

这里插一个飞利浦、光刻机的ASML和台积电的故事。

80年代初,如梦初醒的欧洲人在半导体领域为了不被发展强劲的美日两国拉开差距,欧洲共同体曾经搞过一个“尤里卡计划”,这个计划里有个关于集成电路的项目叫JESSI。

JESSI里面最重要的项目就是MEGA,对,就叫这个名字,和理想汽车MEGA没关系。

这个计划就是做1M的内存。MEGA项目有两个具体执行的单位,分别是西门子和飞利浦。

于是两家公司分工了一下,西门子负责DRAM,飞利浦负责SRAM。

西门子的DRAM事业就是从这里起步的,2006年的时候,DRAM事业拆分,就是奇梦达,然后经历了2008年金融危机以及同行三星的疯狂价格战后,奇梦达最终倒在了2009年,之后奇梦达的专利又被老朱同志搞来,于是就有了国产内存之光——长鑫。

这段历史在我“内存战争”系列里都讲过。

项目在1984年启动,两个巨头准备出资15亿马克,两国政府补贴5亿马克,目标是在80年代末赶上日本人。

做到一半的时候,西门子在最关键的时候选择“背刺”,他们直接从东芝引进DRAM的技术,并且在1987年的时候顺利量产了1M的DRAM。

正是因为这个原因,西门子直接从日本复制了整个东芝生产线的设备,当然光刻机也肯定用了尼康的。

然后欧洲的光刻机初创公司ASML当时就哭了,说好的是欧洲政府补贴的项目,怎么好处全给日本同行?

好在,ASML还有飞利浦这个好爸爸,最艰苦的时候,ASML依靠爸爸,稍微卖了几台光刻机,熬了过去。

但是问题又来了,随着市场变化和技术迭代,SRAM芯片市场逐渐消失。甚至CPU大哥英特尔直接把它集成到CPU里面变成缓存,单颗的SRAM芯片还有谁要啊?

所以,最终飞利浦负责的SRAM项目失败了,落得一地鸡毛。

思来想去,飞利浦只能选择止损。他们找到当时刚刚对新技术饥渴难耐的中国台湾,因为那边刚刚诞生了未来的芯片代工巨头——台积电。

于是飞利浦毫无保留地把整个MEGA项目的生产线放开给台积电学习,再原封不动地把所有设备打包搬到中国台湾,当然作为光刻机供应商的ASML,也总算顺带把自己的光刻机设备给卖出去了。

作为回报,在台积电股东里,飞利浦是当时最大的外部股东,占股27.5%。

所以说台积电的老底子都是飞利浦给打下来的。

最有意思的事来了,1988年,新产线快弄好的时候发生了一场大火,无奈之下,台积电只能把所有过火的光刻机退了回去,并且重新下了17台新订单。

这17台机器的订单是真的帮了大忙。

ASML当时很缺钱,这些订单在关键时刻救了急。当然FAB都有保险,结果就是为火灾买单的保险公司成了ASML的客户,所以1989年的时候,从严格意义上讲,ASML最大的客户是保险公司。

从上面这个小故事大家就可以看到,到80年代后90年代初,SRAM基本作为单独芯片销售的市场基本上已经消失了。

当然,SRAM并没有消失,它们以IP内核的形式直接被集成到CPU,GPU,以及各种SoC芯片内部。

直接设计在一起,然后流片流出来就行了,没什么人买单颗SRAM的芯片了,除了上文提到过的极少数的需求之外。

到现在CPU,GPU的内部都有SRAM,它们作为芯片的二级缓存而普遍存在。

在PC,HPC上的CPU里面,SRAM面积还不小哦,普遍占到一半,但是在手机这种对功耗要求比较高的CPU里,SRAM就比较小了。

由此可见,SRAM还有两个特点,第一是面积大,第二是功耗高。

SRAM和DRAM相比,在面积上有天然的劣势,这个没办法,因为本身结构限制了。

DRAM的原理是1T1C,也就是一个电容一个晶体管,而SRAM则由6个晶体管组成。

因此同容量情况下,SRAM的面积得是DRAM的5,6倍以上。

而面积就是成本,所以SRAM按单位面积算,那是相当昂贵的。

所以CPU,GPU里能给的容量,普遍也就几M到几十M,比如启哥这颗i9-14900的CPU顶配桌面级CPU,当时4000多大洋买的,SRAM二级缓存只有区区32M。

不是英特尔不想做大,而是真的用不起啊,

商业环境下,你不能只考虑性能,不考虑成本,你说是不是?

当然在AI芯片上,情况略有不同,毕竟AI芯片的核心面积比我的i9要大多了,所以普遍能上100多,甚至200多M的SRAM缓存。

毕竟人家Groq的一块卡,要卖2万多美金,那用料必须得足啊,速度必须得快啊,否则对不起这2万美金的售价啊。

那再反过来说,就算以后大容量的SRAM成为AI芯片的标准,请问和国内做SRAM上市公司有什么关系吗?

半毛钱关系都没有。

我已经说了,SRAM早就以IP内核的形式集成到SoC里面,又不是单独拿来卖的,难道Groq还采用了国产SRAM公司的IP不成?

就算用了,这买IP也花不了太多钱啊,都是非常成熟的技术和方案,也不知道那些按计算器拍业绩的人,是咋按的,反正我看不懂。

所以网上传的那份《SRAM和DRAM,从成本角度与AI的关系》,绝对有失偏颇,只提优点,不提缺点,也不提实际情况。

实际情况就是大容量的SRAM要上,毕竟这个直接提升性能比较明显,但是HBM也绝对不是它的对立面啊。HBM依然是未来主要技术路径,这个毫无疑问,毕竟HBM虽然贵,但是单位容量价格比SRAM还是便宜太多了,性价比摆着呢。

说什么SRAM未来替代HBM,绝对胡说八道,瞎扯淡。

当然了,这些半导体知识太专业了,一般人接触不到,也不懂,哪怕是机构研究员,估计相当一部分人也稀里糊涂的,反正跟风推票就完事了,回头拿派点,岂不是喜滋滋?

本文来自微信公众号:启哥有何妙计(ID:qgyhmj),作者:陈启

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年2月21日
下一篇 2024年2月21日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日