AI行业观察:5月发生了什么?

Maia项目做起来不会很顺利,Cobalt相对更明确:

微软强的地方是有一个还不错的老芯片团队,但缺点是芯片架构设计,Maia本质还是大模型时代之前设计的芯片,在算子、计算存储比、pipeline方面没有完全考虑到大模型时代的需求,更多适配的上一代的AI与ML模型。148.81亿,。

Snow给的解释是:

没有看到有人通过snow获得了大量账户登录验证授权。

一、微软Build大会

微软一直想做一个知识库+Agent的全家桶:

  • 包括M365 Copilot可以调用M365 Cloud上的文件,以及这次推出的Copilot Stuido。

  • Copilot Studio的核心是开放定制能力和配置各种接口。

  • 未来的场景是对齐目前小团队创业公司提供的2B解决方案,典型的像用GenAI来做简单的HR Workflow,或者大学实验室的研究知识库。

  • 这种类似形态我们在国内都能见到很多几个人的项目团队在为客户提供,比如拉出来几个交大的AI PhD,通过开源模型就可以上手帮客户做了。

  • 这往后也是个比较复杂的生态建设,所以可以想象到未来很多集成商,都会围绕M365 Copilot帮客户做数据清洗和调用调优(甚至还会用到Fabric),以及帮客户用Copilot Stuido搭建一部分简单场景,做起来也不会那么快,有很多三方配合过程,做AI 2B不能假设客户都懂自己做。

  • 这段是我感觉最亮点的,看完对微软更有信心了,但对其他软件行业更担心了,Copilot Studio+M365 Copilot如果和集成商生态合作的好,就像变形金刚一样,可以做太多软件同行的工作了。

Maia项目做起来不会很顺利,Cobalt相对更明确:

  • 微软强的地方是有一个还不错的老芯片团队,但缺点是芯片架构设计,Maia本质还是大模型时代之前设计的芯片,在算子、计算存储比、pipeline方面没有完全考虑到大模型时代的需求,更多适配的上一代的AI与ML模型。

  • 微软的整体文化也更偏产品与应用,芯片这类长期高投入看不到短期回报的事情,在目标管理上也很有难度。

  • 相比而言Cobalt的场景因为有AWS Graviton开路更加容易,Graviton在AWS的Incremental Share已经非常高了,自下而上各家软件公司也都开始Recoding适配Graviton生态。

AI PC:

  • Recall(Rewind)场景可以在端侧跑,包括Rewind之前的卖点就是可以端跑,照顾隐私,但之前的效果也有很多诟病,期待Surface Recall会有不同效果。

  • 以及Phi2/Phi3模型都很适合做翻译、Transcript、Summary的工作,带着Surface经常跑来跑去,连不上网的场景也很多,其他的GPT4t/GPT4o场景还是得在云跑。

  • 相比AI手机,AI PC在调用Windows软件上还很困难,这主要是Windows和iOS的区别,以及现在Windows本身的数据格式也不是为GenAI设计的,这里也有很多工程量要做。

  • AI手机中,OpenAI的合作如果到了Siri系统层,调起APP难度都更低,后面更多是生态合作,例如微信开不开放、滴滴开不开放的问题。

  • 从现在的情况来看,包括Consumer M365 Copilot等产品,特别适合在会议/邮件端的Office Copilot场景,未来都可以上线移动端。

模型是怎么降本的:

  • 这也是最近路演客户频繁和我们聊到的话题,Satya也花了很长时间在发布会上讲如何更便宜、更好。

  • 最大的降本来源于MOE模式的进化,我们可以做个简单的类比,GPT4是个16个Expert的通才,GPT4o是个200+Expert的专才,用户每次调用2个Expert如果都是通才就会有很多参数用不到,那如果专才的能力(参数)分配得到,那效率就会更高,激活参数也会下来。

  • 每一代模型的第一代都是For 登月需求,后续更多是工程优化,MOE是现在的主流方向,其他的还有包括压缩激活的Attention(Deepseek也在用这个方法)

  • 只有更大的数据量(或者更高质量)和更大的参数量,才可以让模型变得更聪明,而不是工程优化。

这么多卡用去哪:

  • 这也是客户最近频繁和我们讨论的话题。

  • 简单看需求的话OpenAI的推理用卡,今年底可能比去年底要多6-7倍;Azure OpenAI的推理用卡可能要多4-5倍;而Chatgpt才开放GPT4o免费用,用卡量也会因模型难度上升提升一个量级。

  • 各类Copilot合起来可能要5-10万张。

  • AWS卖卡风生水起了,Azure H100的各类介绍到今年3/4月才开始有,而AWS的H100去年3季度就开卖了;微软主要的卡过去都让位给OpenAI和Azure OpenAI API,今年也会开始有卡让给H100 Instance。

  • 新来的Inflection团队要训练MAI-500B大模型。

二、NV业绩点评

NV 点评:

  • 24Q1 收入 260亿, 毛利率 78.4%, 净利润 148.81亿, 其中DC 收入达225亿(GPU 193亿, Networking 31亿)

  • 24Q2 指引: 收入 28bn, 毛利率 74.8+/-0.7%。

  • 拆股计划: 1拆10, 预计将于6/10开市时以拆分调整后的方式开始交易。

  • 财报及指引皆大超市场一致预期, 拆股计划+ H/B卡供不应求趋势延续给予市场较大信心。

财报会议中重点信息:

  • H200+B卡供不应求趋势延续, 缓解市场对产品迭代带来的空窗期焦虑, 且管理层预计B卡在今年就能带来显著收入, 从主要客户结构上看, 除以往CSP+企业客户+算力租赁外, 主权AI的接入带来新的增量收入, 预计全年会有大几十亿美金的收入贡献。

  • 二季度H20+H200会开始放量, 毛利环比微降, 符合先前管理层指引全年毛利率mid-70%。

  • IB需求依旧旺盛, Q1收入环比下滑只是阶段性, 且管理层预计Spectrum-4方案在全年有望贡献数十亿美金收入, 同时具备超大集群(100K GPU)组网能力, 整体网络业务在Q2恢复环比增长。

缺不缺卡:

  • 缺卡,我们最近和Coreweave、Lambda以及北美三大CSP都做了沟通,还是缺卡(更详细的情况欢迎留意我们后面算力租赁公司情况的报告)

  • 头部的大模型公司也很缺卡,训练资源仍然不足。

  • 然后就是做超大集群的部门工作量严重饱和。

ROI好不好:

  • 老黄说1块钱GPU可以变成5块钱。

  • 你现在在AWS上买Ondemand的GPU,1块钱不只能卖5块钱,甚至能卖6-7块钱;便宜点买3yr长约大客户,大概相当于3块钱,但价格都是动态变动。

  • 总能找到1块钱变成5块钱的场景。

三、SNOW安全危机

事情源于之前的桑坦德银行和Ticketmaster数据泄露,目前感觉这个事情和Snowflake的关系不是很大,大概率因为客户设置的登录安全方式过于简单所导致的可能性比较大

Hudson Rock公司之前给的攻击路径过于玄幻(需要成功绕过Okta,然后进入Servicenow,然后Servicenow里面还得恰好有Snow客户的账户认证信息)导致整个攻击看上去非常不可能(现在该篇文章已经被Hudson Rock撤掉了)

第一要绕过Okta,这本身有点难度。

第二主要Servicenow主要是IT 生成ticket的处理,即不会涉及客户数据本身 ,也非常罕见能有客户身份系统的管理员权限下的相关信息。

Snow给的解释是:

  • 没有看到有人通过snow获得了大量账户登录验证授权。

  • Snow有个demo账号被泄露了,但是和上面讲的那个攻击路径没有关系,是一般的用户名、密码泄露所导致的。

  • 看到有人通过偷来、”暗网“买的验证授权在登陆Snow(Snow和Mandiant在联合查,这是一般被攻击方应尽的义务,但是不代表Snow就是责任方)

针对第三点,Snow也给用户的建议是尽量用MFA(多因素认证)来升级原来的单因素认证(SFA),简单来说就是登录账户要用用户名+密码和短信认证,总是要比单纯的用户名+密码要安全。

本文来自微信公众号:共识粉碎机(ID:botaijin),作者:Andy Liu

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年6月3日
Next 2024年6月3日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日