OpenAI做芯片,只因钱太多

 
虽说OpenAI投资芯片研发在情理之中,但相对于其他重注AI大模型的巨头来说,OpenAI毕竟体量有限。
 
芯片最适合AI公司烧钱
  
多数技术公司花钱的最好的办法都是买买买。但是买谁,也有讲究。
 
过去一段时间里,很多AI公司在“烧掉多余的钱”方面,都会选择收购业务相似的同行,或者是与自身业务强相关的上下游企业。

互联网/芯片公司近一财年研发投入
 
对于现阶段急需花钱的AI公司来说,AI芯片公司如此高的研发成本,算是很适合“烧钱”了。

“AI芯片赛道会在年底再度爆发,芯片危机最快会在明年解决。”

 

早在半年前,就有很多AI和芯片业内人士对算力危机提出了乐观预期。业内普遍认为,以谷歌研发TPU芯片为例,各家重注投资AI大模型的公司一定都会投入AI芯片的赛道。

 

其最主要的原因就是,资本巨头们不会让英伟达长期独占市场。

 

诚如预期。最近两周,AI大模型的头部玩家相继放出了最新的芯片战略。先是亚马逊给OpenAI最强竞对Anthropic注资40亿美元,买断了他们在AI训练方面的“芯片选择权”;其后是微软AI芯片Athena被媒体曝出将在下月发布;最后则是这两天路透社的报道,称OpenAI正在评估潜在的芯片公司收购。

 

虽说OpenAI投资芯片研发在情理之中,但相对于其他重注AI大模型的巨头来说,OpenAI毕竟体量有限。如此迅速地杀入芯片研发赛道,会不会有些仓促?

 

事实上,OpenAI入局芯片也是逼不得已。一方面,芯片价格持续上涨,这也说明OpenAI正在被迫把自己辛苦研发AI赚到的钱,上供给英伟达。另一方面,GPU短缺的现状,也的确正在制约AI公司的发展。

 

OpenAI的CEO山姆奥特曼就曾在2023年中的一场闭门讨论中抱怨:GPU短缺的问题打乱了OpenAI的短期计划。

 

山姆奥特曼在这次会议中提到,OpenAI在GPT-4发布之初就计划把ChatGPT的上下文长度提升到32k token,但GPT-4上线很长一段时间,这一预期都没有实现,其根本原因就是OpenAI也面临着GPU短缺,以及算力太贵等问题。

 

不过,对于刚刚崛起的AI独角兽来说,研发AI芯片,除了是要反抗英伟达的“压榨”,投资芯片还隐含另一层原因,就是要努力花钱。

 

烫手的钞票

 

在大模型的资本狂欢中,AI公司账上的钱,越来越多。

 

OpenAI年初收获微软100亿美元注资;在亚马逊给Anthropic注资40亿美元之前,谷歌就已经给这家公司投资了数亿美元,在亚马逊之后,谷歌还有计划继续对该公司追加投资。国内AI大模型的明星公司智谱AI,近期也曝出了B-4轮融资的消息,目前估值或达10亿美金。

 

除了大量融资涌入,AI公司的技术升级也在给研发省下很多钱。

 

今年3月,OpenAI公布的API接入价格就出现了大幅下降,据OpenAI公布的数据,ChatGPT的推理运算成本,在3个月时间里下降了至少90%。

 

虽然半年过后的今天,OpenAI并没有公布推理和训练成本的下降最新情况。但可以预见的是,在不考虑算力芯片涨价的情况下,AI训练和推理的单位算力成本大概率是在持续下降的。

 

当然,在原有基础上AI公司肯定会扩大研发规模,但技术研发并不会无限扩张。如果算力成本能保持3个月“打一折”的下降速度,那么可以想见,OpenAI的很多研发预算,短期内都会闲置在账户里。

 

资金快进慢出,对于创业公司不是好事。

 

一方面会导致投资者对公司资金管理能力的疑虑,另一方面大量现金也有可能降低创业公司的投资回报率。

 

拿到巨额融资,本应是好事,但对于短期盈利预期并不明朗的AI公司来说,钱多了反而使这些公司的掌舵人开始发愁:这么多钱怎么花?

 

要全部投在模型训练上吗?这显然不合理。

 

首先所有技术的研发都是周期性的,不管一次融了多少钱,花钱都要按部就班地来。另外,现阶段AI大模型公司开销的大头主要是AI训练过程中产生的算力费用。但如果把钱全花在算力付费上,那这些钱就完全是研发开支。

 

但大模型研究其实有点像赌博,并不是说每次训练都能得到满意的结果。如果大模型研发效果好,那么巨大的算力开支还算说得过去。但如果反复训练,没有达到预期的效果,那这些为算力支付的费用就只能是试错成本。这也就使得AI公司在算力方面支付的钱,也变成了赌博,为算力付的钱,有多少是真的投资了未来,又有多少打了水漂呢?

 

然而,如果能在研发AI的同时,把这些钱花在算力芯片上,那就完全不一样了。

 

投资AI芯片,最直接的好处就是账面上好看,收购芯片研发公司,就可以把原本要烧在算力上的钱,沉淀成了资产。这不仅能增强自己的核心竞争力,还能给早期投资人和未来的投资人花钱的合理解释。一旦公司IPO,这些沉淀下来的资金,也可以帮助推高公司的估值。

 

芯片最适合AI公司烧钱

  

多数技术公司花钱的最好的办法都是买买买。但是买谁,也有讲究。

 

过去一段时间里,很多AI公司在“烧掉多余的钱”方面,都会选择收购业务相似的同行,或者是与自身业务强相关的上下游企业。国内很多财大气粗的AI公司,就已经收购了不少金融、制造等数字化转型服务公司,有的甚至还自己投资新建了不少相关公司。

 

不过,从过去二三十年,互联网、软件公司的发展来看,AI技术研发、数字化转型,这些偏重互联网、云和软件等业务的研发花销普遍不大,未必能达到把钱花好的目的。

 

以美股头部公司为例。市值3012亿美元的甲骨文,2023财年的研发费用是66.4亿,占营收的17%。2018亿美元市值的Salesforce,2023财年的研发费用是50.55亿,投研比为16%。

 

相对来说,芯片研究要比软件贵得多。同类型的芯片公司,即使体量不大,研发费用也要高过这些软件公司。

 

最火的英伟达,2023财年研发成本73.39亿美元,占比27.2%,2022财年52.68亿美元,占比19.6%。虽然英伟达目前市值超万亿,但在2023财年中,英伟达股价的平均值还不到现在的一半。

 

其他的芯片公司,AMD的2022财年研发费用为50.05亿美元,占营收的21.2%;英特尔2023财年研发费用82亿美元,投研比33.2%;高通的2022财年研发费用81.94亿,投研比19%。

 

更有趣的是,给芯片行业做工具软件的EDA公司们的研发投入更大。主流EDA软件Synopsys上一财年的研发费用为16.8亿美元,投研比33.07%。过去几年中,这家公司的投研比也全部高于30%,有的年份甚至超过40%。

OpenAI做芯片,只因钱太多

互联网/芯片公司近一财年研发投入

 

对于现阶段急需花钱的AI公司来说,AI芯片公司如此高的研发成本,算是很适合“烧钱”了。

 

AI公司能打破英伟达的壁垒吗?

 

AI公司做AI芯片,听起来很合理,但实际上并不容易。

 

目前市面上除了英伟达的GPU以外,还有很多公司在设计AI芯片。包括谷歌为TensorFlow设计的TPU (Tensor Processing Unit);华为正在研究的专为神经网络计算设计的NPU (Neural Processing Unit);以及传说被孙正义盯上的英国公司Graphcore开发的,专门用于AI任务的IPU。

 

这些芯片多数也都经历了很长时间的研发迭代,但商业表现和英伟达明显相去甚远。

 

其中,谷歌从2015年就开始研发TPU,并在内部推广使用。2018年,谷歌开放了TPU的第三方应用,作为其云基础设施的一部分。不过到目前为止,TPU仍没有大规模走入AI芯片市场。

 

事实上,即使TPU开放了商业化,目前主流的GPT模型要在TPU上运行,也会受到一定限制。因为GPT采用了与TensorFlow不同的PyTorch架构,虽然PyTorch中已经增加了对 TPU 的支持,但在运行过程中还需要一些额外的优化工作。

 

这也是困扰一众AI芯片的问题,多数AI芯片的硬件性能其实已与英伟达相差不远,但是底层软件和开发工具对应用的支持远不如英伟达。

 

不久前,科大讯飞总裁刘庆峰曾公开称赞华为的AI芯片性能,称其已经可以对标英伟达的高端显卡了。对此,很多业内人士其实并不感到奇怪,“显卡的裸金属性能要赶上英伟达,其实不难。”中科院自动化所主管刘昊告诉虎嗅,中科院自动化所的紫东太初大模型就一直与武汉智算中心合作,使用华为昇腾Ascend 910和910b训练AI大模型。

昇腾Ascend 910

 

刘昊认为,在性能方面华为的算力芯片确实与A100差不多,但在训练大模型的过程中却无法替代英伟达显卡。“虽然华为芯片的性能没有问题,但在实际的AI大模型训练中,它的工具链不够完善,裸金属的性能并不能完全发挥出来。”

 

英伟达的壁垒,并不是GPU硬件性能,而是基于CUDA的开发环境。虽然华为在这方面也在开发类似的CANN,但相对于已经推出超过15年的CUDA来说,差距还比较明显。

 

不过,这对于OpenAI、Anthropic这样的AI公司来说,正是可以发挥优势的部分。

 

AI公司可以在软件和硬件之间进行紧密的协同设计,确保芯片的设计完全满足算法的需求,从而提高效率和性能。同时,AI公司可以围绕其芯片产品建立完整的生态系统,包括软件库、工具、框架和支持服务,从而为客户提供一站式的解决方案。

 

除此之外,AI公司对机器学习和深度学习算法的理解更深入,这使得它们能够为特定的算法或任务定制和优化芯片。在实际应用中使用机器学习模型,它们可以根据实际的应用需求和场景,也可以对芯片设计进行反复迭代。

 

赚钱预期的分歧

过去9个月时间里,英伟达股价翻了3倍,市值突破一万亿美元。目前的市盈率TTM为102.03,静态市盈率为242.75。而Invesco半导体ETF的30家美国半导体公司平均市盈率为21倍,其他在AI上重投入的科技巨头们的市盈率都在20-40倍之间,英伟达的赚钱能力几乎强过他们10倍。

 

有消息称,2023年第二季度英伟达最先进的H100显卡出货量达800多吨,且持续供不应求。多位国内GPU服务器渠道商向虎嗅透露,一台百万多的GPU服务器,交货周期不同,价格上浮空间超过50%。

 

在今天,买GPU服务器的AI公司、云厂商,像极了国内奢饰品店门口排队买LV和GUCCI的人。在英伟达门口,攥着钱,排着队。好不容易交了钱,还要等货。如果再没有能打的竞争对手出现,英伟达的销售们没准也要开始让客户“配货”买GPU了。

 

不过,在这样赚钱的赛道里,资本对AI芯片的情绪其实比较复杂。毕竟AI芯片的赚钱周期太长了。大家都想像英伟达一样赚钱,但没几个人愿意经历芯片研发的漫长等待期。

 

由此,资本市场对AI芯片公司的态度也出现了分歧。在OpenAI要做芯片的传闻之前,国内AI芯片行业就有两则新闻值得关注。

 

首先是寒武纪近期发布公告称,国投基金减持完毕,基本清仓。而这已经不是寒武纪创投股东们首次出现清仓式减持。第二则是背靠腾讯的燧原科技宣布完成D轮融资20亿元。

 

作为AI芯片第一股,寒武纪遇到的最大问题,就是持续亏损,长期烧钱却落地缓慢。在AI芯片上直接烧钱的做法似乎不太适合中国公司,中国的AI公司和AI芯片公司,可能更适合Anthropic和亚马逊的合作模式。在AI芯片研发方面,多方协作,发挥自身特长。AI公司把AI推理、训练的应用需求用好,芯片公司把芯片设计技术用好,再配合大厂的技术、资金优势,从而加快产品的研发、迭代速度,从而在市场中占领一席之地。

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2023年10月10日 17:22
下一篇 2023年10月10日 17:33

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日