Ilya离开OpenAI内幕曝光

承诺的20%算力居然有画大饼成分

从去年OpenAI宫斗到现在,灵魂人物、前首席科学家Ilya就几乎不再公开露面、公开发声。

去年DK哥写道,他认为AI发生生存灾难的可能性为70%

DK哥在2022年加入OpenAI,在治理团队工作,主要工作内容是引导OpenAI安全部署AI。

DK哥阐述,当年,他加入OpenAI,满怀对安全治理的抱负和希望,期望OpenAI越靠近AGI能越负责任。

连发13条推文——OpenAI超级对齐负责人Jan Leike,也就是刚刚追随Ilya离开公司的那位,自曝离职的真正原因,以及更多内幕。

一来算力不够用,承诺给超级对齐团队的20%缺斤少两,导致团队逆流而行,但也越来越困难。

二来安全不重视,对AGI的安全治理问题,优先级不如推出“闪亮的产品”。

紧接着,更多的八卦被其他人挖出来。

比如OpenAI离职成员都要签一份协议,保证离职后不在外说OpenAI坏话,不签的话视为自动放弃公司股份。

但仍然有拒不签署的硬骨头出来放猛料(笑死),说核心领导层对安全问题优先级的分歧由来已久。

去年宫斗至今,两派的观念冲突到达了临界点,这才看上去颇为体面地崩了。

因此,尽管奥特曼已经派了联合创始人来接管超级对齐团队,仍旧不被外界看好。

冲在最一线的推特网友们感谢Jan有勇气说出这个惊人大瓜,并感叹:我勒个去,看来OpenAI真的不太注重这个安全性!

不过回过头来,如今执掌OpenAI的奥特曼这边,暂时还坐得住。

他站出来感谢了Jan对OpenAI超级对齐和安全方面的贡献,表示Jan离开,他其实很难过、很舍不得。

当然了,重点其实是这一句:“等着,过两天我会发一篇比这更长的推文”。

承诺的20%算力居然有画大饼成分

从去年OpenAI宫斗到现在,灵魂人物、前首席科学家Ilya就几乎不再公开露面、公开发声。

在他公开宣布离职前,就已经众说纷纭。很多人认为Ilya看到了一些可怕的事情,比如可能毁灭人类的AI系统啥的。

网友:我每天醒来第一件事就是想Ilya看到了啥

这次Jan算是摊开了说,核心原因就是技术派和市场派对安全方面的优先等级产生了不同看法。

分歧很严重,目前后果嘛……大家也都看到了。

据Vox报道,熟悉OpenAI的消息人士透露,更注重安全的员工已经对奥特曼失去了信心,“这是一个信任一点一点崩溃的过程”。

但如你所见,在公开平台和场合,没有太多离职员工愿意公开谈论此事。

一部分原因是OpenAI一直以来,都有让员工签署带有非贬低协议的离职协议的传统。如果拒绝签署,就等于放弃了此前拿到的OpenAI的期权,这意味着出来说话的员工可能会损失一笔巨款。

然而,多米诺骨牌还是一张接一张地倒下了:Ilya的辞职加剧了OpenAI近期的离职潮。

紧随其后宣布离职的,除了超级对齐团队负责人Jan以外,目前有至少五个安全团队成员离职。

其中还有个没签署非贬低协议的硬骨头,Daniel Kokotajlo(以下简称DK哥)

去年DK哥写道,他认为AI发生生存灾难的可能性为70%

DK哥在2022年加入OpenAI,在治理团队工作,主要工作内容是引导OpenAI安全部署AI。

但他也在近期辞职了,并且对外接受了采访:

OpenAI正在训练更强大的AI系统,目标是最终全面超越人类智能。

这可能是人类有史以来发生过的最好的事情,但如果我们不小心行事,也可能是最糟糕的事情。

DK哥阐述,当年,他加入OpenAI,满怀对安全治理的抱负和希望,期望OpenAI越靠近AGI能越负责任。但团队中许多人慢慢意识到,OpenAI不会这样了。

“逐渐对OpenAI领导层以及他们负责地处理AGI的能力失去了信心”,这就是DK哥辞职的原因。

对未来AGI安全工作的失望,是Ilya加剧的离职潮中众人离开的一部分原因。

还有一部分原因,是超级对齐团队,恐怕没有外界想象的那样能资源充沛地进行研究。

即便超级对齐团队满负荷工作,团队也只能获得OpenAI承诺的20%的算力。

而且团队的一些请求经常被拒绝。

当然是因为算力资源对AI公司来说重要至极,每一点都要合理分配;也因为超级对齐团队的工作是“解决如果公司成功构建AGI,实际上会出现不同类型的安全问题”。

换句话说,超级对齐团队对应的是OpenAI需要面临的未来的安全问题——划重点,是未来的、不知是否会出现的。

截至发稿,奥特曼还没有发出他那篇“(比Jan爆料内幕的)更长的推文”。

但他简单提到,Jan对安全问题的担忧是对的,“我们还有很多事情要做;我们也致力于这样做。”

就这一点,大伙儿可以先搬个小板凳等等,到时候咱一起第一时间吃瓜。

综上,现在超级对齐团队走了好些人,尤其是Ilya和Jan的离职,让这个风雨之中的团队面临群龙无首的窘况。

后续安排是联合创始人John Schulma来接手,但不再有专门的团队。

新的超级对齐团队将是联系更松散的小组,成员分布在整个公司的各个部门,OpenAI发言人将其描述为“更深入地整合”。

这一点也为外界所质疑,因为John的原本的全职工作是确保目前的OpenAI产品的安全问题

不知道突然多了份责任后,John能不能忙得过来,好好领导关注现在和关注未来安全问题的两个团队?

Ilya和Altman之争

如果把时间线拉长,其实今天的分崩离析是OpenAI“宫斗”Ilya-Altman之争的续集。

时间回溯到去年11月,当时Ilya还在,他同OpenAI董事会合作试图解雇奥特曼。

当时给出的理由是,他在沟通中不够真诚——换言之,我们不信任他。

但最终结果显而易见,奥特曼带着他的“盟友”威胁加入微软,结果董事会屈服,罢免行动失败。Ilya离开董事会。而奥特曼这边,选择了对他更为有利的成员加入董事会。

在这之后,Ilya就在社交平台上消失了,直至前几天官宣离职。而且据说,他已经大约6个月没有出现在OpenAI办公室了。

当时他还留下一条耐人寻味的推文,但很快就删除了。

在过去的一个月里,我吸取了许多教训。其中一个教训是,“在士气提高之前,殴打会一直持续下去”。这句话比它应有的含义更经常地适用。

但据内部人士透露,Ilya一直远程共同领导着超级对齐团队

而在奥特曼这边,员工们对他最大的指控就是言行不一,比如他声称自己想优先考虑安全,但他的行为却很矛盾。

除了原本承诺的计算资源没有给到外。还有像前阵子找沙特等筹集资金来造芯。

那些注重安全的员工懵了。

如果他真的关心以尽可能安全的方式构建和部署人工智能,就不会这么疯狂地积累芯片,来加速技术的发展。

更早之前,OpenAI还从一家奥特曼投资的一家初创公司订购芯片。金额高达5100万美元(约合人民币3.6亿元)

而当时宫斗那几天,OpenAI前员工的举报信中对于奥特曼的描述似乎也再一次印证了这件事。

也正因这样从始至终“言行不一”的操作,员工们逐渐失去了对OpenAI以及奥特曼的信心。

Ilya是这样,Jan Laike是这样,超级对齐团队也是这样。

有贴心的网友整理出这几年间,发生的相关事情的重要节点——先来个贴心提示,下文提到的P(doom),指“AI引发世界末日场景的可能性”。

  • 2021年,GPT-3团队负责人因“安全”问题离开OpenAI,创立Anthropic;其中一位认为P(doom)为10%~25%;

  • 2021年,RLHF安全研究负责人离职,P(doom)为50%;

  • 2023年,OpenAI董事会解雇奥特曼;

  • 2024年,OpenAI解雇两位安全研究员;

  • 2024年,一位特别关注安全的OpenAI研究员离职,他认为P(doom)已经在70%。

  • 2024年,Ilya、JAN Laike离职。

技术派还是市场派?

大模型发展至今,“如何实现AGI?”其实可归结为两条路线。

技术派希望技术成熟可控再应用;市场派则认为边开放边应用“渐进式”走到终点。

这也是Ilya-Altman之争的根本分歧,即OpenAI的使命是专注于AGI和超级对齐,还是专注于扩展ChatGPT服务?

ChatGPT服务规模越大,意味着需要的计算量越大;这也就会占用AGI安全研究的时间。如果OpenAI是个致力于研究的非盈利组织,他们应该将更多时间花费在超级对齐上。

而从OpenAI对外的一些举措来看,结果显然不是,他们只是想在大模型这个竞争中拔得头筹,为企业和消费者提供更多的服务

这在Ilya看来这是件非常危险的事情。即便我们不清楚随着规模的扩大会发生什么,但在Ilya看来,最好的办法就是安全第一。

有了开放和透明,我们人类才能安全地构建AGI,而不是以某种隐秘的方式。

但奥特曼带领之下的OpenAI,似乎既不追求开源,也不追求超级对齐。相反,它一心只想朝着AGI的方向狂奔,同时试图建立一条护城河。

那么最后是AI科学家Ilya的选择正确,还是硅谷商人奥特曼能走到最后呢?

现在还无从得知。但至少OpenAI现在面临着关键抉择。

有业内人士总结了两个关键信号:


  • 一个是ChatGPT是OpenAI的主要收入来源,如果没有更好的模型支撑,就不会免费向所有人提供GPT-4;

  • 另一个则是如果离职的团队成员(Jan、Ilya等)不担心很快会有更强大的功能,他们就不会关心对齐的问题……如果AI停留在这个水平上,基本上也无所谓。

但OpenAI的根本矛盾没有得到解决,一边是盗火者一样的AI科学家对负责任发展AGI的忧虑,另一边则是硅谷市场派对于用商业化方式推动技术可持续的急迫。

两方已经不可调和,科学派正在完全出局OpenAI,而外界至今也不知道,GPT究竟到哪一步了?

迫切想要知道这个问题答案的吃瓜群众都有点累了。

一种无力感涌上心头,就像Ilya的老师、图灵奖三巨头之一Hinton说的那样:“我老了,我担忧,但我无能为力了”。


参考链接:

[1]https://www.vox.com/future-perfect/2024/5/17/24158403/openai-resignations-ai-safety-ilya-sutskever-jan-leike-artificial-intelligence

[2]https://x.com/janleike/status/1791498174659715494

[3]https://twitter.com/sama/status/1791543264090472660

本文来自微信公众号:量子位 (ID:QbitAI),作者:衡宇、白交

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年5月18日
Next 2024年5月18日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日