OpenAI首席科学家Ilya离开OpenAI了吗?

在一串致谢名单中,我们看到了萨姆·奥尔特曼、格雷格·布罗克曼、米拉·穆拉蒂等人的名字,但唯独没有出现伊尔亚·苏茨克维。

这不禁让人怀疑,伊尔亚究竟是在埋头研究。”

一、“我们终于知道伊尔亚看到什么了”

OpenAI。

人们似乎在这一刻终于理解了伊尔亚为什么一直执着于人工智能的安全性研究。

我们暂时无法得知伊尔亚是否已经离开了。

Sora。

Sora 一夜之间火爆全球。但奇怪的是,OpenAI 联合创始人兼首席科学家伊尔亚·苏茨克维(Ilya Sutskever)却保持沉默,没有转发任何一条关于 Sora 的视频或推文。

Sora 目前没有公开测试权限,仅仅向公司内部负责安全风险评估的红队成员(Red Teamers),以及极少数视觉艺术家、设计师和电影制作人提供访问权限。因此模型发布当天,OpenAI CEO 萨姆·奥尔特曼(Sam Altman)在社交平台 X 上在线接单,基于用户给出的提示词一连发布了 8 条视频。

OpenAI 联合创始人兼总裁格雷格·布罗克曼(Greg Brockman)、CTO 米拉·穆拉蒂(Mira Murati)等人,也在积极为 Sora 宣传。

但伊尔亚的最后一条推文,停留在了 2023 年 12 月 15 日。

OpenAI 在其官网上的 Sora 的文章后面留下了团队成员的名字。在一串致谢名单中,我们看到了萨姆·奥尔特曼、格雷格·布罗克曼、米拉·穆拉蒂等人的名字,但唯独没有出现伊尔亚·苏茨克维。

这不禁让人怀疑,伊尔亚究竟是在埋头研究 GPT-5,还是已经离开了 OpenAI ?

值得一提的是,OpenAI 创始成员之一、AI 技术研究员安德烈·卡帕蒂(Andrej Karpathy)在Sora 发布前夕离职。有网友大胆猜想:“如果 Andrej 和 Ilya 创办一家真正开放的人工智能公司怎么办?”

一、“我们终于知道伊尔亚看到什么了”

OpenAI 最新发布的 Sora 模型再次让人们感受到了人工智能的强大,强大到令人害怕。

Sora 不仅仅是一个视频生成模型,它涌现出了对物理世界的理解能力(尽管还存在局限),OpenAI 直接将其定义为“世界模拟器”(world simulators)——它打开了一条通往模拟物理世界的有效路径。不少人感慨,“现实不存在了”,“物理学不存在了”。

人们似乎在这一刻终于理解了伊尔亚为什么一直执着于人工智能的安全性研究。强大的 AI 模型对世界带来的风险并非遥不可及。

有网友表示:“现在,我们知道伊尔亚看到什么了。”埃隆·马斯克则在贴子里留下了一个“笑哭”的表情。

去年,随着 GPT-4 以及后续一系列更强大的大语言模型的更新,以伊尔亚为代表的 OpenAI 成员越来越多地考虑 AI 的可控性问题。

为此,OpenAI 在 2023 年 7 月 5日宣布成立一个新的团队“超级对齐”(Superalignment),来研究引导和控制比人类聪明得多的 AI 系统。这一项目由伊尔亚与同事简·莱克(Jan Leike)共同领导,并将 OpenAI 20% 的算力专门用于该项目的研究。

一般认为,去年 11 月闹得沸沸扬扬的 OpenAI “宫斗事件”的导火索,就是伊尔亚对于 AI 的发展理念与萨姆产生了分歧,伊尔亚越来越担忧 OpenAI 的技术可能造成极度危险的局面,他觉得萨姆对待 AI 应该更加谨慎。显然,萨姆并没有停下来。

在硅谷,对于 AI 的不同态度把人群分成了保守派与激进派。保守派也被称为EA(Effective Altruism,有效利他主义),代表人物是“人工智能教父”杰弗里·辛顿(Geoffrey Hinton),伊尔亚就是他的学生。

激进派被称为“e/acc(有效加速主义)”,很多知名的科技大佬、AI 从业者都是 e/acc 主义的信徒。萨姆并未公开表达过自己的立场,但考虑到他带领下的 OpenAI 一系列激进的产品发布节奏,事实上他已经成为 e/acc 的代言人。

伊尔亚联合董事会成员罢免了萨姆。但在大股东微软的斡旋与 OpenAI 全体员工请辞的压力下,伊尔亚最终妥协让步,萨姆在几天后重新回到了 OpenAI 并掌权,并重组了董事会。

宫斗事件结束后,伊尔亚并没有立即离开 OpenAI,萨姆希望继续他们之间的工作关系,并正在讨论他如何继续在 OpenAI 的工作。

萨姆表达了对伊尔亚的谢意:“我尊重并热爱着伊尔亚,我认为他是这个领域的指路明灯,也是人类的瑰宝。我对他的恶意为零。”

但去年外媒一篇报道曾指出,伊尔亚似乎处于一种“迷茫”的状态,在 OpenAI 变得“隐形”。自萨姆回归以来,伊尔亚就没有出现在 OpenAI 旧金山的办公室内。马斯克也向伊尔亚抛出了橄榄枝,他表示伊尔亚应该加入特斯拉或他的 AI 公司 xAI。

伊尔亚对于人工智能安全的工作还在继续。12 月 14 日,OpenAI 发布了超级对齐项目的最新研究论文:使用 GPT-2 级别的小模型来监督 GPT-4 级别的大模型,并获得接近 GPT-3.5 级别的性能。同时,OpenAI 宣布与 Eric Schmidt 合作,启动了一项 1000 万美元的资助计划支持技术研究,以确保超人类人工智能系统的一致性和安全性。

作为该论文核心作者之一的伊尔亚,也在 X 上转发了相关内容。但这是宫斗事件至今,伊尔亚在 X上转发的关于 OpenAI 进展的唯一内容。

我们暂时无法得知伊尔亚是否已经离开了 OpenAI ,但他对于 Sora 的沉默态度似乎并不寻常。

伊尔亚在签名上写着:“朝着拥抱人性多样化的通用人工智能发展。”

二、人才是 OpenAI 的核心竞争力

虽然伊尔亚并不在 Sora 的研究团队中,但 Sora 仍然表现出了压倒性的性能优势,可见人才密度是 OpenAI 领先的重要因素。

Sora 团队整体非常年轻。核心成员有三位,分别是研究负责人Bill Peebles(比尔·皮布尔斯)与 Tim Brooks(蒂姆·布鲁克斯)与系统主管 Connor Holmes。

Conner Holmes 曾是微软研究员,在微软工作时以外援形式参与了 DALL·E 3 的推理优化工作,后来跳槽加入 OpenAI 。

Bill Peebles 本科就读于 MIT,主修计算机科学,参加了 GAN 和 text2video 的研究,还在英伟达深度学习与自动驾驶团队实习,研究计算机视觉。毕业后正式开始读博之前,他还参加了 Adobe 的暑期实习,研究的依然是 GAN。

2022年5月,Bill 到 Meta 进行了为期半年的实习,和谢赛宁(Bill 开始实习时还未离开 Meta)合作发表了 DiT 模型,首次将 Transformer 与扩散模型(Diffusion Model)结合到了一起。从加州大学伯克利分校博士毕业之后,Bill 加入了 OpenAI。

Sora 的模型架构,就是参考了 Bill 与 谢赛宁合作发表的 DiT 论文。值得一提的是,该论文主要聚焦在了 DiT 架构在图像生成领域的性能表现。有人推测,随着 Bill 加入OpenAI ,他很可能把自己在视频领域的研究成果,也带到了 OpenAI 的 Sora 项目中。

Sora 的另一个核心作者是 Tim Brooks,曾在 Google 负责 Pixel 手机摄像头的机器学习工作,以及在英伟达负责视频生成模型研究。

2023 年从加州大学伯克利分校博士毕业后,Tim 加入 OpenAI,参与了 DALL·E 3 相关研究。

在其他几位作者中,也包括两位华人 Li Jing 与 Yufei Guo。

今天,上海交大校友、目前在纽约大学担任助教的谢赛宁在朋友圈辟谣了自己是 Sora 作者之一的消息。他表示,Sora 是 Bill 他们在 OpenAI 的呕心沥血之作,虽然不知道细节,但他们每天基本不睡觉高强度工作了一年。

同时,谢赛宁也对 Sora 发表了他的观点:

第一,对于 Sora 这样的复杂系统,人才第一,数据第二,算力第三,其他都没有什么是不可替代的;

第二,在问 Sora 为什么没出现在中国的同时,可能也得问问假设真的出现了(可能很快),我们有没有准备好?

如何能保证知识和创意的通畅准确传播让每个人拥有讲述和传播自己故事的「超能力」,做到某种意义上的信息平权。但是又不被恶意利用,变成某些人某些组织的谋利和操纵工具。oai 有一整套的 redteaming, safety guardrail 的研究部署,欧美有逐渐成熟的监管体系,我们准备好了吗?

这件事跟技术成熟前,生成点小打小闹的漂亮图片不是一个量级,真相捕捉和黑镜里讲的故事,很有可能很快变成现实。

本文来自微信公众号:甲子光年 (ID:jazzyear),作者:赵健

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年2月19日
下一篇 2024年2月19日

相关推荐

  • 数字人出海背后,隐藏哪些商业机密?

    某上市公司旗下数字人营销视频创作工具负责人Dour介绍,曾有几个客户向其反馈了极为惊人的数据:使用数字人,一个季度可以完成高达1700~2000小时的直播时长,相当于平均每天直播17个小时。

    在亿邦的调研中,一个常被各种数字人服务商所提及的宏伟设想,或许可以更加具象地展现这门方兴未艾的技术究竟有着多大的想象空间:

    数字人的远期定位,并不是抢“真人”的饭碗,而是在算力爆炸、AI永续迭代的背景下,重构整个电商领域的信息呈现方式。

    未来科技 8小时前
  • 迪士尼想用 AI 改造娱乐业,但它准备好了吗?

     
    乐园:迪士尼的技术试验场
     
    迪士尼乐园不仅是“世界上最快乐的地方”,也是迪士尼前沿技术的实验场。
     
    马克·谢弗曾在人民快运航空和大陆航空从事收入管理工作,他来到迪士尼后,领导一个由 250名员工组成的数据分析团队,对迪士尼乐园的各项业务进行动态定价,并推出了。
     
    2022年,迪士尼推出了人工智能工具。
     
    迪士尼的人工智能困境
     
    1928年,迪士尼推出了世界上首部声画同步动画片《汽船威利》。

    未来科技 8小时前
  • 这个世界变得更精彩,但好像也更无聊了

    那是一个下午,办公室的咖啡机坏了,我在楼下买了一杯厚乳拿铁,上楼后发现同事都出去吃午饭了,我一个人坐在窗边的工位上,升起的阳光正好覆盖在了我的电脑屏幕上,浏览器的文字都变得模糊起来,我眯起眼睛,试图看清屏幕上的字,依稀能看到我的代码编辑器,正在用。

    我是热爱并且积极拥抱这些最新最酷的技术的人之一,但我猛然想到,那些不那么乐意拥抱新技术的人,就一定要被淘汰,这也是让人挺不舒服的一件事。

    未来科技 8小时前
  • 工业AI大模型落地应用的最新实践,都在这里

    上述问题,也正是我们即将在“大鲸AI闭门会·制造专场”上深入探讨的焦点!
     
    6月20日,虎嗅智库将在苏州举办“2024大鲸AI闭门会·工业制造专场”,汇聚信通院、美的、隆基绿能、施耐德电气等权威机构、头部甲方企业、工业智能企业的创新者,独家完整呈现甲方头部完整AI应用落地案例,并将围绕、“智能生产与排程”、“质量分析与数字模拟”、“人机协作与智能制造”等话题,共同探寻AI大模型在工业智造领域的落地应用。

    未来科技 9小时前
  • 果然,美国限制AI出口立法的进程又进一步

    Review(ID:Internet-law-review),作者:互联网法律评论,题图来自:视觉中国

    当地时间2024年5月22日,美国众议院外交事务委员会以压倒性多数,通过了一项限制AI模型出口的法案。

    只是从功用上对“涵盖的人工智能系统”进行了一定的概括,不过,这样的“新定义”基本上涵盖了“任何人工智能系统、软件或硬件”,只要这些物项满足以下条件:

    侵蚀美国国家安全或外交政策的方式。

    未来科技 10小时前
  • 微软Build:GPT-4o重塑Windows,奥特曼剧透新模型

    本文来自微信公众号:APPSO (ID:appsolution),作者:超凡、王萌、崇宇,题图来自:微软Build 今天凌晨,微软带来了一系列重磅产品,一口气发布了50多项更新。 …

    未来科技 10小时前
  • 产业政策的迷失:日本AI败局启示

    本来,日本在神经网络和深度学习方面有很强的底蕴,但在全面为第五代计算机服务的背景下,全社会的资源都在向专家系统这一路径倾斜,甚至连福岛邦彦这样的大佬都很难申请到需要的经费。而当第五代计算机的梦想在二十世纪九十年代最终破裂后,日本干脆削减了对整个AI学科的资金扶持,这就导致了最优秀的人才根本不愿意进入这个领域。

    一旦有日本的AI企业率先从类似的领域发起突围,并真正实现了盈利,那么日本全社会对AI兴趣的低迷就会被扭转,人才也会陆续重新回到这个领域。

    未来科技 10小时前
  • AI已经擅长欺骗人类,其阴暗面令人震惊

    从娱乐至生活,AI欺骗在扩散

    诚然,游戏无疑是一个相对可控的环境,我们可能倾向于认为,这种AI欺骗行为的危害并不严重。

    而且,这种欺骗能力并非仅存在于模型规模较小、应用范围较窄的AI系统中,即便是大型的通用AI系统,比如GPT-4,在面对复杂的利弊权衡时,同样选择了欺骗作为一种解决方案。

    AI欺骗的系统性风险

    毋庸置疑,一旦放任不管,AI欺骗给整个社会带来的危害是系统性和深远的。

    未来科技 10小时前
  • 第一个iPhone刺客,可能要倒下了

    //www.cnet.com/tech/mobile/humane-maker-of-wearable-ai-pin-is-exploring-a-sale-report-says/
    https。//techcrunch.com/2024/05/22/humane-the-creator-of-the-700-ai-pin-is-reportedly-seeking-a-buyer/。

    未来科技 10小时前
  • 第一波收割完的AI创企要跑路了?6年来仅做了一款产品

    创办Humane之前,Chaudhri曾在苹果公司担任设计师长达20年,据报道于2017年被苹果公司解雇,Bongiorno在苹果公司工作了8年,担任iOS和macOS的软件工程总监,并于2016年离职。

    Humane与微软的合作主要是体现在其利用微软的云基础设施搭建技术平台,同时,Humane也将OpenAI的技术集成到其设备中。

    未来科技 11小时前