Ilya Sutskever:OpenAI“叛变者”的恐惧与信念

Sutskever的成长历程,认识一下这位AI技术天才,同时,也从他近期的媒体采访发言中了解一下他的思想,包括有效利他主义、有效加速主义这些思想派别在硅谷科技领导者中间的博弈和冲突,以及Ilya发起的“超级对齐”是什么意思,OpenAI将如何发展,AI安全问题能如何解决。

AI安全的担忧与分裂

其实,AI大模型的安全问题不是第一次造成OpenAI内部的分裂。

连续五天的OpenAI管理层冲突及谈判后,Sam Altman最终回归OpenAI。但皆大欢喜之际,是时候聊聊这次事件的另外一边声音了:OpenAI技术灵魂人物Ilya Sutskeve对AI安全的恐惧和他对技术发展的信念。

随着AI技术快速发展,硅谷两大对立思潮分裂明显:一派是担心安全的有效利他主义(EA),另一派是支持技术无限加速的有效加速主义(E/ACC),随着科技往前推进,这两种声音需要被更好平衡和理解。

“叛变者”Ilya Sutskeve

美国时间周二晚,OpenAI董事会风波又又又又发生了反转,最终Sam Altman回归OpenAI担任CEO,董事会全部重组,三名初步董事会成员包括Salesforce前联合首席执行官Bret Taylor, 美国前财政部部长Larry Summers, 以及Quora创始人Adam D’Angelo留在了董事会。

我相信,这个闹剧在之后几天还会有更多的细节和消息流出,但目前来看,事态应该不会再有大的反转了(希望如此),在连续四天的各种反转之后,OpenAI这家AI技术最重要的公司,终于暂时稳定了下来。

但是,在这个各方皆大欢喜的时刻,我们希望冷静下来,回顾一下这场“罢免风波”中一个非常重要的声音以及人物,就是这次风口浪尖上的“叛变者”:OpenAI的首席科学家、技术灵魂人物Ilya Sutskever。

这期我们来回顾一下Ilya Sutskever的成长历程,认识一下这位AI技术天才,同时,也从他近期的媒体采访发言中了解一下他的思想,包括有效利他主义、有效加速主义这些思想派别在硅谷科技领导者中间的博弈和冲突,以及Ilya发起的“超级对齐”是什么意思,OpenAI将如何发展,AI安全问题能如何解决。

成为OpenAI技术灵魂人物

1986年,Ilya Sutskever出生在苏联时期的俄罗斯,一直到五岁,全家搬去了以色列耶路撒冷,然后在以色列成长到大学时期,前往加拿大的多伦多大学学习电脑科学。之后,继续在多伦多大学进修研究生,而他的导师正是“深度学习之父”Geoffrey Hinton

2012年Hinton带领Ilya Sutskever,还有另外一名学生Alex Krizhevsky发表了深度卷积神经网络AlexNet论文,之后在ImageNet图像识别竞赛上取得了轰动性成绩。然后Hinton带着Alex和Ilya创立了公司DNNResearch,被各个科技大厂竞价疯抢,最后他们选择了谷歌。

这一段历史,在Genius Makers这本回溯ChatGPT诞生前十年硅谷巨头如何布局AI的书里面有详细提及,中文也有译本叫《深度学习革命》。

之后,就是Ilya Sutskever在谷歌的将近三年时间。直到2015年,被马斯克和Greg Brockman拉去跟Sam Altman还有一众大佬们一起创立了OpenAI最初的非营利组织架构。Ilya Sutskever从第一天开始,就是OpenAI技术的灵魂人物。

最开始的时候,OpenAI内部可以说是各路神仙打架,因为最开始都是AI技术大牛,但大牛们各自擅长和研究领域不一样,所以有点像无头苍蝇一样各种尝试,所以大家可以看到最开始OpenAI尝试过AI机器人,最开始训练AI打游戏,但最开始几年都被谷歌吊打。

直到2017年,谷歌发表的Transformer架构论文Attention is all you need引发业内关注,OpenAI内部开始讨论集中火力走大模型方向,Ilya Sutskever支持了这个方向的发展,然后主导了GPT-1,GPT-2,GPT-3,GPT-4以及生成式画图DALLE系列模型的研发。但是到GPT-5的时候,他启动了“叛变”,将AI安全问题上升到舆论中心。

AI安全的担忧与分裂

其实,AI大模型的安全问题不是第一次造成OpenAI内部的分裂。2020年底,OpenAI的前核心员工Dario Amodei就带着10名心腹离开OpenAI,包括他自己的亲妹妹Daniela Amodei,创办了如今OpenAI最大的竞争对手Anthropic。而Dario出走的最根本原因就是安全问题。

如今的生成式AI还是一个黑匣子,人们并不知道其中是如何运作的,只知道堆参数堆算力的“大力出奇迹”的方式,而关注AI安全的这一波技术人员担心,“知其然不知其所以然”的人工智能发展态度会带来未知的风险。

有一个经典的AI案例是,机器学习中有一个现象叫做Reward hacking激励扭曲现象。这部分我们在硅谷101之前的《OpenAI黑手党》中有详细解释过,我在这里再简单解释一下:

比如说,我们给AI布置一个任务,让它去通关吃豆子游戏。按人类设置的激励假设是,你游戏玩得更好,通关得越快,被奖励的分数就越高。但AI研究人员发现,这个激励假设很容易被AI所扭曲,AI会执迷于获得更高的分数,要么走完所有错误的路吃掉所有的豆子来获得更高的分数,要么改掉游戏设置来作弊获得更高的分数。 

但是AI却从来不理解,要把走出迷宫当作真正的目标。这就叫做Reward hacking,激励模型设计和AI真实做法之间有无法预测的不确定性,而形成的激励扭曲。而当AI神经网络变得更强大而出现激励扭曲时,AI会更容易产生更想象不到的方式去作弊来得到激励。再举一个更极端的例子,想象一下你和AI在下棋,你给AI布置的任务是赢下棋局,但除了跟你玩游戏获胜之外,还有一种情况是,AI认为把你消灭掉,是赢下棋局更容易的方式,那很可怕对吧?同时,生成式AI带来的其它安全问题还有错误信息,算法歧视问题,AI的滥用问题等等。

这就是为什么,很多AI从业人员呼吁减慢AI发展速度,真正需要关注安全问题。

Dario Amodei采取的方式是一方面用小规模人工智能网络的模型去真正搞清楚黑匣子问题。我曾经有机会当面问Dario黑匣子问题什么时候能搞清楚,他说需要2-3年的时间。另外一方面,Anthropic推出的ChatGPT竞品Claude号称基于“Constitutional人工智能”, 用“有监督学习”的方式,让人工智能根据一套constitution中的原则来产生无害性偏好的数据集。确实有业内人士反馈说,Claude感觉上是更安全可靠的,但我还是非常期待AI黑匣子能被完全解密的那一天。

Ilya的“超级对齐”

到了OpenAI这边,Ilya Sutskever在Dario Amodei叛逃的那一次并没有跟着离开,而是留下来继续研发了GPT-3.5,ChatGPT,以及Dall-E系列,之后GPT-4和如今的GPT-5。直到这次,加入了董事会对Sam Altman的罢免。

我其实不惊讶Ilya Sutskever最终对安全问题的反击,只是没想到是这种决然的方式。其实也是有迹可循,在最近几个月,Ilya Sutskever开始频繁对媒体表示对AI安全的担心。

还记得我们开头提到的,Ilya Sutskever是“深度学习之父”Geoffrey Hinton的学生。Geoffrey Hinton今年早些时候从谷歌辞职,就是为了能更好地对人工智能安全提出警告,并且号称“对毕生工作感到后悔和恐惧”。所以,作为Hinton的学生,Ilya对AI的担心很早就存在。但与Dario Amodei对AI安全的解法不一样,Ilya的解法叫做“超级对齐”,Superalignment。“AI对齐”的意思是,要求AI系统的目标要和人类的价值观与利益相对齐。

有媒体报道说,Ilya有一次和团队在外团建的时候,拿出了一根木质雕像,来代表“不对齐”的人工智能,然后把它点燃,强烈表达他对不受控制的人工智能的不接受,以及倡导与人类价值观和安全标准保持一致。

所以在今年7月,OpenAI正式宣布成立一个新的研究团队“超级对齐”Superalignment团队,由Ilya和研究员Jan Leike共同领导,计划未来4年投入20%算力,用AI监督AI的方式,解决超智能AI对齐问题。

用AI来监督AI会是一种新的尝试,我们现在也不知道是否能成功解决AI安全的问题。但Ilya认为,这是我们现在必须要做的。

OpenAI的事态发展到现在,超出了Ilya的想象和控制,他本人也在推特上表示,自己后悔加入这次的董事会罢免中,不想伤害OpenAI,并且他的名字出人意料地出现在了要求董事会集体辞职的员工请愿书上。之后,董事会再度和Sam Altman谈判,最终Sam回到OpenAI。

在一天之前,我们《硅谷101》播客的时候嘉宾说了一段话还挺触动我的,他说:整个事件中,Ilya Sutskever肯定是挨骂最多的那个人,Sam Altman肯定是在硅谷受支持最多的那个人,这就是为什么我们要保护Ilya,这个对立面的声音,也许未来很多年往回看,我们会发现,Ilya的角色也许会相当于《三体》中的执剑人罗辑。

陶芳波博士,MindOS创始人:

其实Ilya不是一个追求权利的人,也不是支持站队或者思潮运动的人,Ilya持有的观点我觉得是跟他的老师比较像的,但他最后的选择比他的老师更勇敢一点,当然也跟他更年轻有关系。他觉得,我也保守,我也相信AI它最终可能会有很大的风险,但我依然要在一个企业里面,我依然要在组织里面,而不是只在外面提醒大家有这个风险,我依然要担起这个责任去创建一门新的科学,这门科学叫做Alignment(对齐技术),来帮助未来的AI真的具有某种底层的编程的注入,来确保它们的安全性。

这是一个完全新的领域,没有OpenAI这群人之前,没有人知道还有一门科学叫做“对齐科学”我们要去关注的。所以他这种在行业中去推动进步的同时,又有勇气去考虑别人考虑不到的事情,并推动一个新的科学发展的这种精神,我觉得是要被人了解到的,而不只是认为他是一个保守主义者,甚至有人会觉得他是一个白莲花,我觉得这是对他的一个误读

EA vs. E/ACC

OpenAI在网页上这样写到:“鉴于我们现在所看到的情况,可以想象,在未来十年内,人工智能系统将超过大多数领域的专家技能水平,并进行与当今最大的公司之一一样多的生产活动。”所以,十年之后,人类的社会架构可能会发生重大改变。在如此大变革来临之际,我观察到的硅谷是极度分裂的,在这样的分裂当中,出现了所谓“有效利他主义”和“有效加速主义”的两大思维派系。

有效利他主义Effective Altruism,简称EA,目前是不少科技领袖和创业者们身上的标签。他们认为,如果生活在数千英里外的人很重要,那么生活在数千年之后的人们也同样重要。也就是说,我们必须要被以后的人类,我们的后代来提前铺垫。

OpenAI董事会中的两名女性董事,曾经或目前深度参与过EA的慈善基金或组织,是非常明显的EA,也可以理解为AI保守派,希望重视AI安全。其中媒体也报道说,Helen因为之前的一篇研究文章中指出OpenAI的安全问题而表扬了对手Anthropic、跟Sam Altman起过争执。

而另外一个思潮,叫做“有效加速主义”,Effective Accelerationism,简称E/ACC,你会在推特,LinkedIn上很多地方看到硅谷不少人将自己归到这个派别中(Garry Tan/Marc Andreessen推特账号),孵化器YC的掌门人Garry Tan甚至做了件E/ACC的衣服经常穿着。他们认为,技术与资本应该联合,无条件实现加速技术创新,并且快速推向市场来颠覆社会结构。

这两股技术信仰最近几年一直在硅谷打架,也不出意外,发生在OpenAI身上。

但无论是EA还是E/ACC,我相信,每个派别里,都有很多人是真正爱人类的,所以他们也希望,AI也能够爱人类。而这种爱的定义,要很小心很谨慎,也很重要。

所以你们是EA还是E/ACC呢?

本文来自微信公众号:硅谷101 (ID:TheValley101),作者:陈茜inTheValley

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2023年11月23日 09:57
下一篇 2023年11月23日 10:09

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日