AI上国内团队好像被甩开了?差钱?差人?

勾连过往,这个问题就不太简单了,可以从好多维度展开:

我们是不是可以说AI国内国外团队一度站在类似平齐的起跑线上。

为什么从AlphaGo开始似乎就看不到国内团队的原创,而是持续在追赶。

一点点回溯

如果回到语音识别、人脸识别,应该可以讲大家处在类似平齐的起跑线上的。

小结

看着简单但其实这是一个超级复杂的话题,近来看很多人在探讨这个,所以还是从这个视角说说自己的观点,简单说就是:

组织里面人之外有场,叠加后才是最终组织特征。

当我们还在困扰为什么国内大模型没有GPT4好用的时候,Sora来了。这潜在意味着从AGI视角看,追赶一年后差距似乎并没有缩小反倒是被拉大了。

勾连过往,这个问题就不太简单了,可以从好多维度展开:

  • 我们是不是可以说AI国内国外团队一度站在类似平齐的起跑线上?

  • 为什么从AlphaGo开始似乎就看不到国内团队的原创,而是持续在追赶?

  • 为什么在追赶的时候,距离似乎在被放大?

一点点回溯

如果回到语音识别、人脸识别,应该可以讲大家处在类似平齐的起跑线上的。甚至因为场景和数据丰富,在这两项上国内团队还占优。一个佐证是过去很多的比赛成绩;另一个佐证是应用范围。老外到现在也不怎么用人脸识别,所以真实场景下人脸识别的精度,很可能还是国内团队的算法占优。

自动驾驶是个奇妙的领域,做了十几年花了几千亿,但似乎都卡在某个限度下面了。所以也看不出什么区别。

所以说如果回到2010年之后的十年,说大家在基本平齐的起跑线上,大致是不错的。当时大家比较公认的是AI上没有秘密,毕竟一有进展论文立刻就出来了。

问题出在大模型上。

在大模型上,局面变成了:

在平齐的起跑线上,OpenAI率先做出来大模型后,别的团队在追赶的同时,差距还被拉大了。

如果单纯地拿没做出来说事似乎也是偏颇的,毕竟Google也没做出来。

但如果横向展开些就发现也不是那么偏颇,在AI这个领域里我们好像并没有做出太杰出的贡献。AlphaGo,ChatGPT,甚至智能音箱、自动驾驶等似乎都是在重复过去C2C的故事。追到平齐的起跑线上却重复过去的故事,这不能说不是问题。

互联网这样是正常的,毕竟你缺了过去几十年在IT上的积累,按切入的时间点(2000年前后),你就只能这样,但AI还这样,就是问题了。

追着不顺利的时候,大家就比较多反省人才密度、资金、机器等。

但其实根本不是主因,调度起这些资源对于小公司是很难的,但还是很多公司有这个实力。(如果统计2022年发布ChatGPT之前的融资金额,你会发现还是有不少公司融资比OpenAI多。)

再进一步深层反省是需要勇气的,因为会打破一些人类本性中无谓的自尊心。

有点像一个人正兴高采烈自信得很,你非上去说,他还有哪些地方不行,他真的很容易揍你。

如果不正视这种差距,并挖掘差距的根本,那再过十年,老套的故事就会再来一遍:

好像差不多达到基本平齐了,然后被甩开差距,然后追赶,然后反省表面因素。一遍一遍循环这个过程。

可怕的点在于:一个循环自身的周期本来就不短,整体循环的所占的时间就更长。

最终后果是不是灾难性,依赖于领域本身的基础特质。

对于天花板比较明显的领域,到达某个限度后,大家其实差不多,所以影响不是特别大。相当于领跑的停了,那后面的只要足够坚持就能赶个七七八八。

对于没有天花板,活性极强,并且今天的结果会是明天的最大推动力的领域,那么后果很可能是灾难性的。这会导致越跑距离越大,并且是在指数曲线上的距离。

很不幸,人工智能看起来是这样的领域。

为什么呢?

不知道谁发明了个词叫人才密度。

然后似乎原因被找到了:人不行。

在附会上钱不够,机器买不着,似乎原因就非常明显,还特别好理解,也容易引起共鸣。

实际上这种认知视角本身就是问题。

背后体现一种思维模式的缺陷。

对于组织而言,不能像过去那样只关注人财物等有形要素,还要关注场。

场是价值观、文化、制度、信念的综合。

我们不能忽视的一个基本事实是:

到一定程度后,其实人个体智商是差不多的。所以人才密度是趋同的。

AI就是这种情况。

真做AI的人,差不多都是从顶级学校里又选了一拨人,非说谁比谁有绝对差距,那就真不是这样。

钱的话OpenAI过去用的钱虽然不少,但很多团队用的钱并不比他们少,2022年之前一共差不多融了30亿美金。(比如:商汤融的其实比这多。)

核心的问题恰恰不是这些可见要素,而是场的差别。

简单说你用修长城的场,不管给多少人、多少机器、多少钱该干不出来还是干不出来,该撵不上就还是撵不上。

(还可以类比皮克斯做动画,动画做不好也是人才密度、机器、钱不行么?)

场可以看成独立生命体,并且在大时空尺度下持续存在,特征也会变化。

如果我们总是干存量修长城的活,场的作用是小的,按图纸搬砖,加大检查,谁干的好就多给钱,干不好就批一顿或者开掉,大致是可以的。

但大模型这种领域显然不是这么个特征,之前有人做过内部模块拆解,其组成还是非常复杂,需要团队一起摸索开拓。

这时候场的落后就是致命的。

你拿黑社会的场去干大模型,对于已经做出的部分,基于开源,已有论文追一追是可以的,但在乌漆嘛黑的未来里探索出一条路,并持续领先就没可能。

这是真的问题。

组织的间断平衡论

这可以再形象一点来看这问题。

团队的类型可以是外科手术型的,一切以主刀医生为中心,别的全是打下手的。(其实修长城本质是这个)。

也可以是足球型的。大家有个角色,但需要更灵活的补位和配合。

更灵活的是网球团队。大家没有角色灵活补位。

对于大模型开发而言,外科手术的肯定是不行的,至少需要优秀的足球模式的团队。

只有模式也还不够,同样是足球队也还有我国足球的情况。

模式还要配合上文化等进行综合才是合适的场。

最终就形成场的先进性:活性且有力量(可以拿终结者的液体机器人和植物大战僵尸的僵尸做类比)

这种先进性的内涵是:

可以让组织保持基本稳态的前提下持续产生跃迁。

这种先进性的根本中精神大于物质,但不适合简单二元论,而是两者的按特定配比的综合。(和决定战争胜利的是人而不是物也不在一个层次上。)

如果这么定义先进性,那两类偏颇场都是有问题的:

一种是超级稳态场,一种是活性但容易崩坏的场。从组织的间断平衡角度看,我们可以这么讲。

有些组织会进入超稳态,它在既有的赛道上把自己强化的很好。内部利益分配各种与其适应。(创新者窘境用价值观、流程来描述,但其实还是缺东西,不过价值观、流程已经比人才密度的视角好很多了,毕竟是场的一部分。)

那根破坏性创新增长曲线背后的原动力是什么?是人才密度、机器、资金么?

可以形象点来说这个问题。

比如猩猩某些方面强化得其实比人好。

我们古代在农业文明上进化其实比欧洲好。

这种好,会导致组织和个体进入超稳态。

这种超稳态会内置妨碍跃迁的力量。

这一点点差异,在大时间轴上,效果就非常明显。

那先进性就是既有稳态,又有足够的活性。

OpenAI差点没把Altman干跑就是活性过剩,能够纠正回来说明还是有稳态力量。

但一路前跑,则是活性场产生的推动力。

这种场才可能构建出一种在稳态中行进,还具有跃迁力量的组织。

这种跃迁的力量是精神与技术的综合。

柔性场的构建成本和难度都是高的。

假如不看场,只看人会怎么样

最典型的是面对内部大规模耗散时采取的措施会有雷同性。

组织中很容易进入一种大家一起磨叽的状态(高深的词可以叫熵增)。我们对付这种耗散只有一种方法就是揍它。回到修长城的方式。前一阵有人在朋友圈发了一个段子,倒是正好和这个呼应。

中国式管理,理论核心就三点:

1.  你干的好,是因为我领导有方。

2.  你干不好就是你有问题,和我没关系。

3.  你不干有的是人干。

这个正好形象的体现了只关注人财物有形要素不关注场的表现(非常闭环和形象,通过人事变动3是可以回到1的)

注定的后果就一定是不停内部倒腾,这种场的特征和组织行为表现具有极大的相关性,包括对强人的渴望,学习刘邦这一套东西都是伴生特征。但实际上这是在狮子社会里面都能看到的古老模式。仍然有用,但估计搞不定人工智能这样的领域。

这背后的认识差距是真正的差距。

如果上面的解读是对的,那么我们在人才密度什么上面的努力就很像缘木求鱼,根本改变不了局面(猴子水中捞月式追赶),而标题上的问题则会不停地被问(超稳态)

难的也正是这里,如果说有形要素的改变是旦夕之功可达,那这种先进场的构建就有点十年树木百年树人百年树人的意思了,并且破功还很容易。

借助AI这种场的形成成本也许可以降下来,但认知的事就会比较困难。转过来后对问题的反省会完全不一样,比如:

但反过来如果场大于个人,那是这样的思维链条:

落后了;

场不行;

进行机制建设;

个体和整体活性增加;

也许动荡,但保持活性迭代。

这里的关键在于怎么才能产生更多的活性个体并且乱而不散。

也会很多混乱甚至崩溃,比如OpenAI自己的内讧,但跃迁到下一层的可能性是高的。

从间断平衡的视角看组织的话,什么能构成跃迁的力量呢?

扩散一点点

假如有一池水,有点颜色,在这里面有一些独立的缸,那缸里的问题是不是都是池子的问题?

我觉得在AI这个事上,主要不是,毕竟保留了足够的自由度。但确实池子的偏好会在长时间轴上有很根本的影响。

小结

看着简单但其实这是一个超级复杂的话题,近来看很多人在探讨这个,所以还是从这个视角说说自己的观点,简单说就是:

组织里面人之外有场,叠加后才是最终组织特征。

如果我们总是用人才密度,钱不够这样的视角去看待问题,那就很难适应这种高速进化的领域,陷入一种追平,落后再追赶的困局。

本文来自微信公众号:琢磨事(ID:zuomoshi),作者:老李话一三

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年2月22日
下一篇 2024年2月23日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日