Sora:大模型从读万卷书到行万里路

在扩散模型(准确说是扩散Transformer)上,通过条件信息,比如我们输入的提示词,来预测下一个Patch(视觉补丁)来生成视频,就像LLM预测下一个Token生成文本一样。

四、OpenAI的技术理想

技术报告最后有一句很重要的话:

我们相信Sora今天展现出来的能力,证明了视频模型的持续扩展(Scaling)是开发物理和数字世界(包含了生活在其中的物体、动物和人)模拟器的一条有希望的路。

我不能创造的,证明我没有理解(What I cannot create, I do not understand)——理查德·费曼

大年初七(实际上是西海岸的初六)就被Sora刷屏了。看了官网的视频和技术报告,还有一些评论。整理了这些想法作为笔记,和大家分享,践行下开源和learn in public的精神。

一、Sora的惊艳之处

Sora可以生成长达一分钟的视频——当前的文生视频的SOTA(最好的模型),比如RunWay和Pika是3-4秒。

Sora能同时保持视觉质量和提示词的一致性,也就是说,作为一个“视频剪辑师”,他理解需求的能力很强。

作为一个“摄影师”,Sora还很专业:能生成具有多个角色、特定运动类型的复杂场景。可以在单个生成的视频中展示多镜头拍摄视角,并且对象是统一的。

Sora还学会了物理(对人类来说的“物理常识”恰恰是对计算机而言最难的,也是此前文生视频模型一大痛点):模型不仅理解用户在提示中要求的内容,还理解这些东西在物理世界中的存在规律。

二、Sora目前的缺陷

可能难以准确模拟复杂场景的物理,也可能无法理解因果关系的具体实例。例如,老太太吹完蜡烛开始鼓掌,但蜡烛其实还没有熄灭。

模型也可能混淆提示的空间细节,例如,将左边和右边混在一起,并可能难以精确描述随时间发生的事件,比如沙漠考古中凭空多出来的椅子,几只小狗玩耍画面中,小狗的数量忽多忽少。

三、Sora技术报告主要内容

技术报告是一贯的CloseAI精神,一些核心要点都按下不表,比如数据/算力方面的信息。主要介绍了两个点:一是技术路线(轮廓)——用生成式模型进行统一视觉数据表示,二是视频生成能力的量化评估,对模型的优势和缺陷的描述。

核心技术是四个:循环神经网络、生成对抗网络、自回归Transformer、扩散模型,这些都贯穿OpenAI早年的技术探索中。

借鉴了大语言模型(LLM)的思路(用Token统一表示文本、代码、符号),用Patch(视觉补丁)表示视频。把视频压缩到低维空间(latent space),然后表示为时空补丁(Spacetime patches)

在扩散模型(准确说是扩散Transformer)上,通过条件信息,比如我们输入的提示词,来预测下一个Patch(视觉补丁)来生成视频,就像LLM预测下一个Token生成文本一样。

Sora可以基于文本、也可以基于图像和视频预测下一个Patch,当然也可以生成一个图,就像Midjouney和Dall·E一样,不过那样有点大材小用。

Sora还可以模拟数字世界、比如电子游戏,还可以和世界互动,比如一个人吃汉堡后留下咬痕,画家的画笔下增加新的笔触。

四、OpenAI的技术理想

技术报告最后有一句很重要的话:

我们相信Sora今天展现出来的能力,证明了视频模型的持续扩展(Scaling)是开发物理和数字世界(包含了生活在其中的物体、动物和人)模拟器的一条有希望的路。

OpenAI的目标并不是PK现有的文生视频模型(比如Make-A-Video、Video LDM、Text2Video-Zero、Runway-Gen2、NUWA-XL、Pikal Labs),或是颠覆广告和影视行业——这些在OpenAI看来都是“短期应用”,OpenAI把Sora视为理解和模拟现实世界的模型基础,视为AGI的一个重要里程碑。

 2016年的一篇论文开头写道(译文来自SIY.Z)

我们常常会忽略自己对世界的深刻理解:比如,你知道这个世界由三维空间构成,里面的物体能够移动、相撞、互动;人们可以行走、交谈、思考;动物能够觅食、飞翔、奔跑或吠叫;显示屏上能展示用语言编码的信息,比如天气状况、篮球比赛的胜者,或者1970年发生的事件。这样庞大的信息量就摆在那里,而且很大程度上容易获得——不论是在由原子构成的物理世界,还是由比特构成的数字世界。

挑战在于,我们需要开发出能够分析并理解这些海量数据的模型和算法。生成模型是朝向这个目标迈进的最有希望的方法之一。要训练一个生成模型,我们首先会在某个领域收集大量的数据(想象一下,数以百万计的图片、文本或声音等),然后训练这个模型去创造类似的数据。这个方法的灵感源于理查德·费曼的一句名言:我不能创造的,证明我没有理解(What I cannot create, I do not understand)

BTW,2016年的这篇论文第一作者是Andrej Karpathy,却在Sora发布前夕离职,确实有些费解。

最后,一些个人非结构化的思考:

五、用比问题更高一维度的视角看待问题

LLM把所有的文本、符号、代码都抽象为Token,Sora把图片、视频都抽象为Patch。

爱因斯坦说过:We cannot solve our problems with the same thinking we used when we created them(我们不能用创造问题时的思维来解决问题)把问题升维的妙处在于:在高一维度,问题会更简单。

还有一些值得考究的经典例子:计算机把所有问题抽象为数学,并用0和1表示。量子计算的量子比特可以实现量子叠加(同时处于0和1状态)。爱因斯坦的统一理论,统一了质量和能量,时间和空间。在高维视角下,万有引力其实是一种时空弯曲。

就像Nvidia的Jim Fan博士所分析的那样,如果要生成这个“两艘海盗船在咖啡杯里互相战斗的逼真特写视频”,用低维的解决方法视角会觉得不可思议:

Sora生产的视频,来源:OpenAI

模拟器实例化了两个精美的 3D 资产:具有不同装饰的海盗船。Sora 必须在其潜在空间中隐含地解决文本到 3D 的问题。

3D 对象在航行和避开彼此的路径时保持一致动画。

咖啡的流体动力学,甚至是围绕船只形成的泡沫。流体模拟是计算机图形学的一个整体子领域,传统上需要非常复杂的算法和方程。

几乎像使用光线追踪渲染的照片级真实感。

模拟器考虑到杯子与海洋相比的小尺寸,并应用了倾斜移位摄影技术,以给出一种“微缩”感觉。

六、关于“真实世界不存在了”

眼见不再为实,视频真实性会遇到前所未有的挑战,但道高一尺,会有视频分类器。这个在Sora技术报告提到了,OpenAI正在开发,会加入到C2PA(Coalition for Content Provenance and Authenticity)内容出处和真实性联盟。C2PA是一个旨在通过开发技术标准,来认证媒体内容来源和历史的联合项目。目标是制定内容出处和真实性的技术规范,为数字媒体创建、发布和分享建立透明和可信的环境。

七、对现有行业的影响

容易想到的是短视频、影视/广告行业。

短视频平台可能会充斥大量AI生成的视频,对于Tiktok和视频号这样的平台而言,消极的因素是:数据存储需求剧增,平台可能需要推出分类器,给视频打上是否是AI生成的标签,加入到推荐算法权重中。对于视频创作者,消极面是用户注意力会被大幅稀释,行业更卷。积极面是,拍摄和剪辑能力进一步民主化,大家进一步卷的是创意和想法, 而不是拍摄设备和剪辑技巧。

对于影视/广告行业,工业化制作的时代正在落幕,下一个时代会很难理解一个“大制作”背后的成本——几百人上千人,分成摄影组/演员组/服装组/化妆组/灯光组/特效组,几年在拍摄现场不眠不休,吃着盒饭,在花费不菲搭建的布景地和道具堆中,用昂贵的设备、一遍遍折腾着天价片酬请来的演员。

积极的视角,正如Elon Musk说的:AI增强的人类将在未来几年里创造出最好的作品。

技术中最迷人的一面,就是让一些经济成本过高行业的专业化祛魅(从另外一个角度看其实是垄断和进入门槛),让更多的玩家进入,让人人平等地发挥自己的天赋,创造出更有想象力的作品。

最后总结一下:Sora是Transformer架构和Diffusion模型的合体,OpenAI继续Scale up(甚至此前有Sam Altman希望用7万亿美元重构芯片市场的传闻),LLM(大模型)从此前的读万卷书到现在开始行万里路——从视频和真实世界学习。

这确实是一个AGI的里程碑,但后面还需要多少里程碑?估计这位老爷子知道答案:

Sora生产的视频截图,来源:OpenAI

参考资料:

作为世界模拟器的视频生成模型:Video generation models as world simulators (openai.com)

Generative models: (openai.com)

如何看待openai最新发布的sora?- SIY.Z的回答 – 知乎

https://www.zhihu.com/question/644473449/answer/3397947587

《Scalable diffusion models with transformers》, https://arxiv.org/abs/2212.09748

https://mp.weixin.qq.com/s/gSvxvOVqYtGcKw0ueDGbFA

https://mp.weixin.qq.com/s/2iGVsdz6YHHupsKIPxRjdQ

本文来自微信公众号:David的AI全景图(ID:aifromchina),作者:李光华DavidLee

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年2月18日
Next 2024年2月18日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日