Sora模型争议背后:什么是杨立昆的世界模型?

争议来自于Sora的技术报告,OpenAI在报告中把Sora定义为可以生成视频的世界模型(World。

由Sora生成

关于世界模型并没有一个标准的定义,但可以非常简单地理解它。

普遍的看法是,生成式技术打造的大语言模型核心是概率模型,通过一个前值来预测与前值最为相关的一个后值,这一能力的前提是模型掌握了海量的数据。

类似于ChatGPT引起的关于“AI是否有意识”的讨论,OpenAI的新模型Sora让更多人知道了“世界模型”的概念。不同的是,这一次,AI圈内的头部科学家、研究者都参与进来,掀起了一场“Sora是不是世界模型”的大争议。

争议来自于Sora的技术报告,OpenAI在报告中把Sora定义为可以生成视频的世界模型(World Simulators),并认为Sora的技术是打造通用世界模型的一种有前景的方法。

由Sora生成

关于世界模型并没有一个标准的定义,但可以非常简单地理解它。一个第一次开车的成年人在过弯道的时候会自然地“知道”提前减速;儿童只需要学会一小部分(母语)语言,就掌握了几乎这门语言的全部;动物不会物理学,但会下意识地躲避高处滚落的石块。AI科学家认为,人和动物会潜移默化地掌握世界的运作规律,从而可以“预知”接下来发生的事情并采取行动。世界模型的研究就是让AI学习这种能力。

Sora可以生成逼真的视频,看起来视频当中包含一个完整的3D世界建模。它支持在保持画面内容一致的前提下切换镜头,甚至能够按照时间顺序往前或者往后生成新的视频内容。很多人认为,Sora学会了“预知”事物发展的能力,这刚好是世界模型研究追求的目的。

然而,一直在研究世界模型的AI科学家、图灵奖获得者杨立昆(Yann LeCun)则认为,Sora的生成式技术与世界模型的因果预测完全不同,Sora不仅成本高昂,而且对于世界模型完全没有意义

今天的人工智能拥有人类无法比拟的能力,但在前沿的科学家那里却很难称得上是“真正的智能”。这样的落差是如何发生的?通往“智能”的世界模型真的重要吗?

一、“白痴天才”

在以ChatGPT为代表的生成式AI浪潮出现之前,AI领域经历了一轮深度学习革命。这个过程中,卷积神经网络CNN大放异彩,引领机器视觉技术走向成熟。今天的手机、电脑以及各种互联网产品当中的图像识别功能,几乎都是CNN作为驱动。

杨立昆在20世纪80年代发明了CNN,它模拟了位于人眼的视觉神经和位于大脑的视皮层神经之间的工作过程,能够识别图片当中的视觉特征,在当时被用来识别手写字体。

CNN真正成为主流是在2010年前后。GPU并行计算能力提升,图像训练数据库ImageNet建立,以及强化学习算法等技术应用,种种条件成熟,使得CNN可以通过深度学习训练来提升图像识别能力,识别准确率高达98%。

特别是在2016年,AlphaGo在围棋比赛中技惊四座,一度让CNN大红大紫。几乎在同期,CNN催生了互联网科技公司的产品更新,比如搜索引擎有了以图搜图功能,自动驾驶汽车可以“看见”行人,社交媒体平台可以自动过滤不符合规范的图片,并且能够在用户上传的照片中圈出好友的名字,等等。

今天,CNN支持的计算机视觉能够快速且准确地识别数以百万计的人脸、汽车的车牌和型号,以人类无法做到的方式分辨动植物的品种。搭载AI识别功能的互联网产品给科技公司带来了超额的收入。然而,这样的识别能力却在一开始就被证明是不够智能、甚至是脆弱的。

2015年的一篇论文揭示了深度神经网络容易被“骗”的特点。实验发现,对于一张被AI成功识别的图片,如果仅改变它一处细微的细节,识别效果就会天差地别。这一发现强调了AI虽然擅长识别图像中的物体,但并没有像人一样读懂了图片的内容,而仅仅是提取了图片中像素排列的数学特征。

这样的特点限制了计算机视觉的应用前景,自动驾驶就是典型的例子。CNN被广泛应用到自动驾驶中,参与图像处理和目标识别任务,自动驾驶公司投入了巨量资源给车辆行驶过程中记录的数据做标记,从而训练深度神经网络。然而,长尾问题一直在阻碍自动驾驶技术的突破。具体而言,对于没有在训练数据中出现过的物体,视觉算法通常难以识别,而车辆行驶过程中出现无法识别的可能性会一直存在。

计算机科学家梅拉妮·米歇尔(Melanie Mitchell)把打败了世界顶尖棋手的AlphaGo称为“白痴天才”。即使AlphaGo拥有无与伦比的围棋技术,但它“不具备任何思考、推理和规划的能力”,同时跟其它CNN神经网络一样,“它所学到的能力没有一项是通用的,也没有一项可以被迁移到任何其他任务上”。甚至只要改变棋盘的形状或者大小,AlphaGo的能力就会化为乌有。

不只是CNN,基于深度学习训练的神经网络几乎都存在类似的瓶颈,能力无法泛化、没有理解力、容易被“欺骗”等等。苇草智酷创始合伙人段永朝认为,智能机器目前所能做的,还只是“最快的猜测”,或者说“以快取胜”,但与真正的人工智能之间依然有巨大的鸿沟。

二、知识 VS 常识

多年以来,前沿的AI研究一直致力于突破深度神经网络的瓶颈,让人工智能学会“理解”,其中的关键被认为是人所具有的世界知识。不同于书面上的知识,这种更靠近直觉的知识组成了人的常识,通过掌握常识,AI能够根据当下的情况预测接下来可能会发生的事情。

最近几年,很多AI科学家走出实验室进入商业公司,借助工程化的能力继续投入研究。在这样的时刻,ChatGPT带着生成式技术横空出世,凭借大规模的数据训练和算力投入,实现了能力“涌现”。一夜之间,AI似乎掌握了知识,并拥有了理解力。Sora发布不久之后,OpenAI首席执行官Sam Altman发布推文称“Scaling Laws是由上帝决定的”,强调人工智能能力指数级增长的关键是“规模”,且这种增长是一种不可阻挡的力量。

普遍的看法是,生成式技术打造的大语言模型核心是概率模型,通过一个前值来预测与前值最为相关的一个后值,这一能力的前提是模型掌握了海量的数据。计算机科学家斯蒂芬·沃尔夫勒姆(Stephen Wolfram)在《这就是ChatGPT》一书中直白地介绍了ChatGPT的原理:

首先从互联网、书籍等获取人类创造的海量文本样本,然后训练一个神经网络来生成“与之类似”的文本……值得注意和出乎意料的是,这个过程可以成功地产生与互联网、书籍中的内容“相似”的文本…ChatGPT“仅仅”是从其积累的“传统智慧的统计数据”中提取了一些“连贯的文本线索”。但是,结果的类人程度已经足够令人惊讶了。

学习了大量文本知识的生成式AI能是不是通往“真正的人工智能”的道路?发明了CNN的杨立昆认为,生成式技术的过程不可能产生真正的智能。他表示,大语言模型拥有从书面文本中提取的大量背景知识,但缺少人类所拥有的常识。常识是我们与物理世界互动的结果,并没有在任何文本中体现出来。大语言模型对潜在的现实没有直接的经验,因此展示的常识性知识非常浅薄,在应用中可能与现实脱节。

可以通过这样一个例子理解杨立昆的看法:大语言模型能够根据足球的材质、颜色等物理信息,得出足球被踢飞后的运行轨迹,这个推理过程不需要考虑物理力学的参数,而是基于训练数据中的概率。通过规模化训练,大模型在语言交流、图像和视频生成方面达到了出人意料的效果,但无法应用于解决基于因果的现实问题。这也是关于“Sora是不是世界模型”争论的焦点。

杨立昆认为,实现真正的智能突破不是靠规模,而是让AI在世界模型中学习常识。在论文《A Path Towards Autonomous Machine Intelligence Version》中,杨立昆提出了有关世界模型架构的思路,与生成式架构通过前值预测后值不同,这一思路把重点放在预测前值与后值之间的抽象关系上。

论文中提到,人或者动物大脑中似乎运行着一种对世界的模拟,称之为世界模型,这个模型指导人和动物对周围发生的事情做出良性预测。杨立昆曾举例表示,婴儿在出生后的最初几个月通过观察世界来学习基础知识,比如看到一个物体掉落,就几乎了解了重力。这种预测接下来会发生什么的能力来自于常识,杨立昆认为这就是智能的本质。

根据论文中的思路,杨立昆提出了联合嵌入预测架构(JEPA),并帮助Meta发布了I-JEPA和V-JEPA两个大模型,两个模型分别展示了在图像和视频方面的预测能力。Meta在训练V-JEPA模型的过程中屏蔽了视频的大部分内容,模型仅显示一小部分上下文。他们发现,通过屏蔽视频的部分内容,可以迫使模型学习并加深对场景的理解。

整个过程就像老师把问题和答案给到学生,让学生还原推导出答案的步骤。V-JEPA可以预测短时间内画面前后的抽象变化,比如给定一个厨房案板的画面,它可以“还原”制作三明治的过程。

现阶段,V-JEPA更像是一种技术展示,并且由于仅关注学习抽象关系,它会选择性地忽视不相关的信息,那么三明治的外观就难以辨认。在这一点上,Sora生成的画面则细节饱满。不过,业内人士在评论V-JEPA时表示,相比于Sora,V-JEPA更符合纯粹的人工智能研究。

在2月14日举行的迪拜世界政府峰会上,Sam Altman融资7万亿美元的计划成为记者提问的热点。出席峰会的杨立昆却犀利地表示,现在的大语言模型是新一轮的炒作(Al Hype),跟过去五年一次的炒作一样,目的都是为了创业公司融资。他认为,实现AGI的路径肯定不是AIGC路线,而是需要新的架构,需要至少20年的时间。

然而,关于“纯粹的人工智能研究”这一评论,有回复认为,即使OpenAI的路线是错误的,也与它将实现的商业价值无关。就像杨立昆发明的CNN神经网络,即使所有人都知道有很大缺陷,但仍然改变了我们的生活。

本文来自微信公众号:电厂(ID:wonder-capsule),作者:肖余林

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年2月27日
下一篇 2024年2月27日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日