OpenAI,陷入生存烦恼

二、OpenAI的选择

ChatGPT刚出来的时候,大家都惊觉这是科技界新的iPhone时刻,将目光聚焦在背后的OpenAI。

与苹果前首席设计师乔纳森一起研发的AI硬件,很可能就是一款支持GPT4甚至5的智能眼镜,但对终端芯片的要求更高了,这次再次看到了OpenAI可能借由硬件布局从定义模型层到产品应用层的潜在路径。

近期OpenAI动作频频,而且个个惊雷贯耳,接连爆出要自研芯片、要与苹果前首席设计师一同打造AI硬件设备。

同时ChatGPT的更新接踵而至:接入Windows、重新联网,实现多模态交互,甚至做到了既能看图、又能听声音、还能说话……

也就是说,OpenAI的进化速度,越来越快了。

模型越牛,估值越高。在过去一年时间,OpenAI的估值也从260亿美元翻到了最高900亿美元,在还没上市的超级独角兽里仅次于字节跳动和SpaceX,据称OpenAI今年收入预计将达到13亿美元,市销率接近70倍!公司正在和投资者讨论用这个估值出售股份。

然而,这个全球关注的超级明星,现在却有不小的烦恼。

说白了,就是虽然作为一个超级估值独角兽,但本身也是一个超级烧钱吞金兽,13亿美元的营收相对庞大的开支简直就是杯水车薪,它如今不仅加紧要考虑未来商业化变现的路径问题,还要应对来自后来者越来越步步逼近的围堵竞争。

在波谲云诡的商业世界里,产品化节奏和资金投入一出现问题,这场以底层模型为支撑的平台游戏都将举步维艰。

随着Meta、Google等玩家强势觉醒,Anthropic+Amazon的组合加入搅局,被强敌林立环绕的OpenAI下一步该怎么走?

一、代理人之战

OpenAI在模型层并不寂寞,即使站在塔尖,一统天下还言之尚早。

尤其在和微软的联盟让科技大厂们意识到成熟的大模型技术将给云计算带来新的业务需求,一番新的混战随着谷歌、亚马逊的加速布局撕开了口子。

近期,Anthropic接受了亚马逊40亿美元的投资,两家公司将在基础模型商用方面进行更深入的合作。具体而言,Anthropic将使用AWS的云服务,而AWS将把Anthropic作为底层模型之一,接入刚刚推出的托管服务,用于构建生成式AI应用。

作为开发者,可以从多个基础模型中选择,用自己的数据来训练,然后将它们部署到自己的应用程序里,就不再需要搭建服务器这么繁琐。除了亚马逊自己的大模型Titan,Bedrock服务里已经加入了多个基础模型。

亚马逊不会找OpenAI,原因和谷歌是一样的,微软Azure-OpenAI的绑定让三家在公有云市场上又多了一番变数。明着看是对下游的押注,其实都是在给自己业务拉活儿。

亚马逊、微软和谷歌三家对公有云市场形成了寡头垄断的局面。根据 Statista 的数据,今年二季度,AWS 、Azure 、Google Cloud份额分别为32%、22%、11%,三家合计稳定在65%的份额。

找大模型行家合作还不够,为了更好地给模型开发者提供服务,同时少受英伟达牵制,科技大厂还必须自己做芯片。

与OpenAI使用英伟达芯片训练不同,Anthropic将采用亚马逊自研的Trainium和Inferentia芯片来训练。

大模型竞赛从底层要求看,首先是算力竞赛。

大厂自研芯片的努力逐渐在实现,既为了降低成本,也想增厚自己出租服务器的利润,多收获像ChatGPT这样的开发项目。

亚马逊很早就开始把自研芯片往服务器堆;谷歌有TPU,并且已经给另一家图像模型的创业明星——Midjourney使用;据外媒报道,微软也可能于下个月发布自研的AI芯片。

其次,巨头们对大模型的想法,其实都在财报上说得明明白白。

他们的半年报里已经反映了客户对于生成式AI需求激增的趋势,ChatGPT掀起的大模型热已经消化得差不多了,下半年科技巨头开始围绕自家应用层的生产力工具,完善增值服务。

比如微软通过与OpenAI合作,率先将AI能力赋能到自己的应用全家桶。

Copilot是微软将AI融入产品矩阵的平台,被定义为“日常AI伴侣”,将作为一个应用程序在微软操作系统中使用,微软从上个月起已经将其加入到Win 11的更新中。

面向B端的365 Copilot企业版也将于11月1日正式上线,正如我们上半年见到的,各类办公软件届时将接入AI助手为我们进行一些自动化操作来提高工作效率。

收费上几乎完全对标了谷歌,这笔增值订阅费用是除企业用户已经支付的生产力套件订阅费用外的额外费用。在今年8月谷歌Workspace推出的Duet AI同样也向企业客户收取30美元/月的费用。

Workspace收入属于Alphabet的Google Cloud类别,与 Google 的云基础设施一起今年二季度产生了80亿美元的营收。在同一时期,微软的Office产品和云服务为其带来了135亿美元的收入。

作为Anthropic较早的投资者,谷歌云搭建的AI平台让用户能够部署和扩展机器学习模型。今年4~7月短短三个月的时间,谷歌云的生成式AI项目数量增长了150多倍。

值得注意的是,和亚马逊一样,谷歌也选择了多模型路线来扩充B端客户的不同需求,包括引入Meta的Llama 2和Anthropic的Claude 2来扩充。同样的,Llama 2也将通过微软云服务进行分发。

兜里不缺钱的大厂拥抱多模型并不稀奇,因为暂时很难笃定哪一类模型将会有更好的应用前景,区别是他们并非站在模型创业者的立场思考,而是以战略合作者的身份想去扩大自己的云服务生态,整合中间模型层给自己的产品赋能。

随着训练成本和调试模型的门槛进一步降低,模型—工具—应用各个层面应该会不约而同地涌进去一大批创业者,其中还包括大厂们现有的客户,与其研发大模型去开发新的应用,还不如实实在在地收割这批新的需求来得经济实惠。

另一方面,这有点像几年前国内两家互联网大厂在各个领域掀起的代理人大战,利用新技术在搜索引擎以及生产力工具不同领域向彼此发起冲击。

正如微软总裁纳德拉所说:“我们想让谷歌跳舞。”有了OpenAI的微软,市值从2022年的1.79万亿涨至如今的2.5万亿,股价一度创下历史新高。

二、OpenAI的选择

ChatGPT刚出来的时候,大家都惊觉这是科技界新的iPhone时刻,将目光聚焦在背后的OpenAI。

一个非盈利性,副线任务是与谷歌抗衡的人工智能研究机构,开发出了一款兼具实用性的AI聊天机器人,标志着一只脚迈出象牙塔,正式踏入了商业世界。

诸如AI工具解放生产力,将人类从重复性劳动解放,再到赋能千行万业、第四次工业革命等等宏大的叙事,配合ChatGPT网页井喷的流量,OpenAI的估值先坐上火箭蹿升。

这时的Open AI已经形成流量入口,加上api模型工厂组成的商业模式,而谷歌还在惊愕中酝酿着反击。

也因为Killer Apps还不多,在ChatGPT向世人崭露头角的时候,大家都在猜想OpenAI未来是否将统治整个模型层,参考的是操作系统、搜索引擎这种几乎垄断的市场。

但其实连Open AI自己都不这么想。

在他们的CTO米拉·穆拉蒂看来,平台游戏能够玩下去的要求,就是让尽可能多的人使用他们的模型,无论是to B还是to C,但人们并不总是需要使用最强大的型号来满足自己的需求。

作为劲敌的Anthropic由原来OpenAI的研究主管Dario Amodei等人出来自立门庭,他们的底层分歧只是对AI商用化和安全性存在不同见解,但同时有一点是同一批来自象牙塔里的人共同笃信的,那就是规模法则(Scaling Law),在未来很长一段时间还会继续发挥着魔力。

在Transformer架构成功融入模型训练中后,数据规模超线性地增长驱动了模型性能的涌现。这就是说,模型参数规模越大,进步得越明显,这是支撑GPT3.5、GPT4、GPT5甚至以后6789的信仰。

然而,开发顶级LLM模型的难度不小,代价不菲。GPT不断迭代会让模仿者望尘莫及,当训练一个更高层级的GPT模型花费成倍级增长时,资本需求自行创造了一定的准入壁垒,在这一层面上没有多少公司能够参与竞争,模型迭代速度决定了Open AI和其他势力的追赶差距,而规模法则助力了这一点。

正如台积电每一代制程升级的成本代代迭升,技术壁垒和花费跟上一代都拉开了巨大差距,但实际上大多数电子产品根本用不上最顶尖的芯片,也因为广泛的需求,落后好几代的制程芯片能以更低的成本使用。

类似的,大模型领域将来可能也会出现这样一种格局,Open AI或者Google作为最顶尖的大模型是极度稀缺的,在某些功能上遥遥领先,而总是落后一代的模型,可能要跟实际使用需求融合得更贴近。

最终两三个最通用的模型可能会站在塔尖,孕育出无数个定制化小模型和应用,这也是OpenAI不愿意错过的商业机会。

几天前,公司刚升级Fine-tuning用户界面,不用写代码,上传训练数据就可以微调大模型, 通过额外的训练,可以让已经训练过的大模型更好完成特定的任务,比如用你自己的风格写文章的大模型。这就是要一步步把中游工具层吃掉的意思。

成为平台玩家之后,OpenAI同样不可避免地要应对商业竞争和自身盈利的要求,经营大模型的成本花费不菲也曾令OpenAI变现的压力骤增。

数月以前,Analytics India Magazine的一份报告中称,OpenAI仅运行其人工智能服务ChatGPT每天就要花费约70万美元,绝大部分花费主要来自高昂的GPU以及人才成本。

GPT3.5爆火后,OpenAI一步步开始构建商业化流程。先是推出ChatGPT Plus收费版,再有ChatGPT 商业版,为了增加营收,OpenAI还多次调整了GPT-4的访问限制。

同期meta和Google相继发力给OpenAI带来不小的压力。其中针对了Google即将发布的Gemini,察觉到威胁的Open AI就已经抢先为GPT4增加图像能力。在接下来的11月6日,OpenAI开发者大会上还将公布“伟大的新工具”,外界纷纷猜测那会是GPT-5。

来源:ChatGPT APP

根据The Information爆料,OpenAI在2022年亏损达到5.4亿美元,但今年营收就能达到13亿美元。才短短10个月的时间,多套组合拳的配合让OpenAI完成了由亏转盈,10亿美元,原是CEO奥特曼年初对2024年的目标。

截至7月份,ChatGPT Plus付费用户达到了200万;在B端市场,企业版ChatGPT已经被超过80%的财富500强公司团队采用。

但处在金字塔尖的模型迭代所需要的算力估计每年都会上升一个数量级,随着应用场景变得更广,这会让不同的专有模型数量倍增,进而大大提升模型部署所需要的算力。

根据机构分析,如果ChatGPT的访问量达到谷歌搜索十分之一的水平,那么每年OpenAI的GPU开销将达到160亿美元,这样的开销未来可能是阻止OpenAI进一步规模化的重要瓶颈。

OpenAI自研芯片和特斯拉研制Dojo实际上很相似,针对性非常高,降本空间也很大。凭借公司对模型的积累,能够根据模型的需求去明确芯片的设计指标,而且对于模型版本有着明确规划,不至于出现芯片量产之后模型已经领先一代的局面。

正因在高性能计算芯片领域,算法和芯片架构协同才是主要的性能提升动力,OpenAI在这方面处于一个比较有利的地位,凭借对算法的深刻理解,公司有望充分利用Huang’s Law做出芯片。

OpenAI还有一项很重要的动作,可能来自应用端的延伸。ChatGPT是公司第一个Killer App,但聊天机器人的应用场景比较局限于文字交互。多模态的降临再度丰富了应用落地的想象力,不过被meta抢先实现了。

Meta上月末公开发布的这款价值299美刀的AI智能眼镜搭载了AI助手Meta AI,内置摄像头,在功能上实现了多模态交互,能玩的事情就比较多了,比如,旅行时讲解各种地标建筑,翻译多种语言菜单,指导维修水管,还支持第一视角的在线实时直播。

与苹果前首席设计师乔纳森一起研发的AI硬件,很可能就是一款支持GPT4甚至5的智能眼镜,但对终端芯片的要求更高了,这次再次看到了OpenAI可能借由硬件布局从定义模型层到产品应用层的潜在路径。

三、尾声

总的来说,多模型的趋势对于Open AI也许是压力,也许是机会,技术迭代远远未至极限,如何突围并引领市场规模增长将会是它面临的主要挑战。

在ChatGPT诞生的大半年里,也不乏像数据泄露安全,侵犯版权这样负面事件影响人们对AI工具的信心,对这些弯弯绕绕,对人工智能的未来,OpenAI没有明确的计划来应对。

当初Sam Altman一批人集结起来的第一个问题就是“我们要做什么”。

如果大模型也有着类似自动驾驶等级的划分,那我们现在或许还处在L1到L2的阶段,而当初这批热血科学家个个都想做出AGI,但究竟会不会有L5这个层级,没人敢打包票。

OpenAI和它的竞争对手们都身处在同一片迷宫里。

用Altman的话说,他们当前的状态,就是每次走到拐角的地方,就拿手电筒照一照,最终到达终点。

本文来自微信公众号:格隆汇APP (ID:hkguruclub),作者:弗雷迪,数据支持:勾股大数据

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2023年10月15日
下一篇 2023年10月15日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日