超级对齐vs有效加速:OpenAI高层大混战

Altman认为,限制OpenAI的发展对美国政府来说是愚蠢的,如果OpenAI的发展被政府的监管阻碍了,中国就可能一马当先,掌握控制全人类的力量。//www.businessinsider.com/openai-ilya-sutskever-burned-wooden-ai-effigy-sam-altman-report-2023-11
[3]https。

没想到快到年底,OpenAI还能再以一己之力搅动行业格局。

在不同的叙述里,过去几周在OpenAI发生的一切是又一场硅谷商战,是“乔布斯”时刻的重演,是天才和商人之间的水火不容。

但这也是围绕人类目前最强的AI展开的路线之争,是可能决定人工智能发展走向、决定人类未来命运的逢魔时刻。

一条路线认为,我们应该毫不犹豫地把最聪明的脑袋和最充足的资金砸在AI上,无条件地加速技术创新,哪怕创新的结果要以彻底颠覆当今的社会秩序为代价——这个进程越快,我们的阵痛期就越短,就越能以最小的代价走向最好的未来。

而在另一条路线上,AI是一个能力强大但道德混沌的造物,它敌我难辨,可能统治人类,也可能大开杀戒,在弄清它到底是什么之前,我们最好还是把它关在盒子里。

在这篇文章里,我们将会回顾OpenAI高层的分裂,介绍这两条路线上的代表思想:“有效加速主义”和“超级对齐”,浅浅聊一聊人类和人工智能对线造成的最差的结果是什么。


(如果你从头到尾围观了OpenAI高层变动的始末,第一部分可以跳过。)


一、看这篇文章之前,你需要先知道的

11月17日,OpenAI发布声明,现任CEO、OpenAI的灵魂人物Sam Altman被董事会开除,而Altman本人半小时之前才得到通知。几小时后,OpenAI董事长、联合创始人Greg Brockman公开宣布,自己也已经辞职。

两个核心人物闪电离职,这家估值近900亿美元的AI明星公司的未来在一天之内变得晦暗难明,关于董事会分裂的阴谋论层出不穷。

接下来的一周,事态的发展再次出乎所有人意料:

  • OpenAI迫于种种压力重新和Altman谈判;

  • 谈判破裂,拥有OpenAI 49%股份的微软宣布刚离职的Altman和Brockman将双双加入微软,领导新AI团队;

  • OpenAI员工集体反水,表示要跟两个离职的大核心一起去微软,其中包括刚上任的临时CEO Murati;

  • Altman宣布将重返OpenAI,并成立一个由微软为代表的新董事会。

Altman孜孜不倦地转发每个员工的请愿(其中也包括把他替换下来的临时CEO Mira Murati)|@sama

这场乌烟瘴气的闹剧让OpenAI的支持者们心痛不已——代表着人类对通用人工智能最高理想和最高成就的公司,竟然用这种拉帮结派和背后算计的方式,如此轻易地在所有人都不知情的情况下闪电罢免了核心人物。

但通过这次Altman的去而复返,我们也看到,OpenAI高层的分裂已经难以调和,最终才以逼宫的形式显示出来。

二、Altman,去而复返

Altman被开除的原因至今成谜。董事会只是在公开信中提到,不再对Altman的领导能力有信心,Altman本人在近期接受采访时也依然拒绝透露相关细节。

围绕Altman去留的激辩,只是OpenAI分裂的外化。这种分裂并不会随着Altman的去而复返而弥合,而是会成为OpenAI在今后的发展中不断碰到的价值观之壁。

OpenAI的第一个分裂之处:坚持非盈利的董事会,和不断吸金的CEO。

OpenAI成立的初衷,可以说是极端理想化的。

2015年,Altman,马斯克,Ilya Sutskever,Greg Brockman和另外几位世界级的人工智能领域科学家一起创立了OpenAI,他们是最早发现人工智能潜力的一批人,也是最先意识到AI威胁的人。因此在成立之初,他们就想好了要成立一个“为每个人创造福祉而不是为股东盈利”的公司。

他们的目标是开发匹敌或超越人类智能的机器,也就是通用人工智能(AGI),并且保证它是安全的。

这也就是为什么——虽然听起来难以置信——市值将近900亿美元的OpenAI至今仍是一个非盈利组织。

“我们难以预测人类水准的人工智能何时到来,但当它到来时,我们需要一个中立的领导机构,这个机构需要把造福大众放在第一,把自己的利益放在第二……作为一个非盈利组织,我们将大力鼓励研究人员公开他们的工作,无论是论文、博文,还是代码,我们的专利将与全世界共享。”|《介绍OpenAI》@OpenAI

之后是沉默的四年,OpenAI在沉默中烧掉了大量资金,经济压力也逐渐增加。

Altman曾担任硅谷传奇加速器Y Combinator的总裁,见过太多优秀的初创公司因为金融问题被老牌公司挤垮,2019年,Altman以CEO的身份加入OpenAI,成立了负责盈利的子公司Open Global。据《大西洋月刊》报道,目前Open Global的雇员数量已经占据OpenAI总人数的99%以上。

当时已经离开OpenAI的马斯克锐评,此举无异于把雨林保护组织变成伐木公司。

很明显,仅靠捐赠已经无法支持我们的计算能力和人才成本……因此我们设计了一种结构,既能保证非营利组织的核心使命、治理和监督,又能为我们筹集资金。|《我们的公司架构》@OpenAI

子公司成立后,OpenAI从微软那里募集了超过110亿美元,直接促成了ChatGPT这样的面向大众用户的产品推出。在很多AI先驱眼里,这种局面是非常危险的,在追求利润、维持公司发展这条路上走得越快,OpenAI离一个中立的、安全的、谨慎的非盈利公司就越远。

第二个分裂之处:快速发展的AI技术,与无法预测的安全问题。

OpenAI的创始人之一、首席科学家Ilya Sutskever和Altman之间经常就AI的安全问题产生争执。Altman更像是商人,Ilya则有着漂亮的学术背景——他师从“深度学习之父”Geoffrey Hinton,而后者在今年春天刚刚从谷歌辞职,以便能更自由地向公众谈论AI的威胁。

有报道总结,Ilya和Altman之间最大的分歧在于,在继续前进之前应该在多大程度上理解自己正在创造的东西。Ilya认为,他的首要任务是解释AI的行为,并找到一种引导AI、让它们和我们的目标和价值观保持一致的方法,而Altman在面对安全和伦理问题时更为激进。

据Bussiness Insider报道,Ilya正是这次董事会罢免Altman背后的推动者。

Altman的激进也招致了其他核心员工的不满。2021年,曾领导了GPT-2和GPT-3开发、负责带领OpenAI安全团队的Dario Amodei辞职,带着GPT-2和GPT-3的核心作者们一起创立了另一家公司Anthropic,因为他担心OpenAI的发展过快,在安全性上得不到保证。

他们的担心并不是过度敏感,AGI的威胁可能近在眼前。路透社近期的一篇报道抖出了这场换人大戏的另一个内幕。 

据知情人士透露,在Altman被罢免前,有研究人员向董事会递交了一封信,提到了一项可能会对人类产生威胁的新项目,Q*(读作Q-Star)。一天后,Altman被董事会罢免。

报道称,Q*项目取得了重大进展,已经可以解决基本的数学问题。与只能解决有限数量运算的计算器不同,与每次都给同一道题不同答案的GPT-4不同,Q*可能已经有了概括、学习和理解的能力,而这正是迈向AGI关键的一步。

OpenAI至今没有正面回复关于Q*的传闻,如果Q*的存在是真的,我们显然还没为它的到来做好准备。

面对即将出现的AGI,产生了两派主流应对思想:分别是“超级对齐(Superalignment)”和“有效加速主义(Effective Accelerationism,e/acc)”。

三、超级对齐:保守派打造屠龙刀

Ilya很清楚,他们面对的是一个比人类聪明得多的智能体。“它就像一个18岁的孩子……需要引导和控制”,Ilya说,“超级智能的巨大力量可能非常危险,可能导致人类丧失权力,甚至导致人类灭绝。”

今年七月,Ilya带头在OpenAI内部发起了一个名叫“超级对齐”的项目,要拿OpenAI至少20%的算力,在接下来四年内解决这个问题(当然,这只是希望,Ilya自己也不知道能不能成功)

“超级对齐”到底是什么互联网黑话,稍微解释一下。

在AI领域里,意图和结果的偏差被称为“对齐问题(The Alignment Problem)”,“对齐”可以简单理解为让人工智能系统与人类价值观保持一致。

一个没有对齐的AI,可能会造成巨大的风险。前两年有一个知名的“吃羊AI自杀事件”,事主训练了一个抓羊AI,目标是得更多的分,但设置的条件太苛刻,扣分简单得分难,训练20万次之后AI发现直接自杀是最好的办法,于是纷纷自杀。

AI自杀始末|耳洞打三金

虽然抓羊游戏是假的,但在各个领域走捷径达成目标的AI是真的。如果这样的AI出现在自动驾驶或者安全领域,人类早已输掉了这场游戏。

这本质上是一个和《猴爪》、点金术一样瘆人的寓言故事:你得到了你想要的,但是达成目标的方式出了大问题。在猴爪的故事里,老太太向猴爪许愿想要200英镑,次日老头子出事故身亡,赔偿金正是200英镑。

如果没有对齐,AI可能酿成惨剧|AI笑话大全(完整版)

对于保守派来说,对齐可以从两个方面下手:详细制订系统目的(外部对齐),和确保系统严格遵循人类价值规范(内部对齐)

这看似是一种理性的方式,但人类的意图本身就模糊不清或者难以阐明,甚至“人类价值”也是多样的、变化的、甚至是彼此冲突的,即使AI完全理解了人类意图,它也可能会忽视人类意图(因为遵循人类意图可能不是它的目标)

Ilya认为,可以训练另一个智能体来协助评估AI,从而实现超级对齐。目前OpenAI正在按这个思路开展工作,让我们期待他们的好消息。

Ilya是超级对齐代表人物的证据:

  • Ilya一直很关心人工智能的安全问题。2022年,他在自己的社交网站上发文称,“今天的大型神经网络可能具有轻微的意识。”

  • Ilya烧毁了一座象征人工智能的木质雕像,以表示OpenAI致力于以人类的最大利益为目标而创造人工智能。

  • Ilya急于解开AI黑箱,并且加以引导,他认为这是人类300万年工具使用史上的最大挑战,也是“人性的最终战(the final boss of humanity)”。

  • 今年10月,Ilya接受采访时再次表示,他当下的首要任务不是构建一个新的GPT或是DALL-E, 而是找出方法阻止人工智能的失控。

  • Ilya认为10年内就会出现超级人工智能。

  • Ilya在推文中说,“如果你觉得聪明是人类最宝贵的美德,那你的日子不会好过”。

站在人类这边的是Ilya|@ilya

四、有效加速主义——不惜一切地前进

“有效加速主义”听起来就刺激多了,也好理解多了。

有效加速主义者认为,人类目前面临的大多数问题,都能通过技术进步和不断增长来解决,通过控制增长和倒退来解决问题的先例在历史上几乎不存在。人类应该无条件地拥抱技术创新,这股力量是无法阻挡的。当“加速”造成问题时,我们不能减速,而是更快更有效地加速,把过渡期缩短。

哪怕这种进步可能会颠覆社会,长期来看也是对人类有利的,因为太空时代的1%比石器时代的500%要大得多。

对有效加速主义者来说,全力发展AI意味着目前人类遇到的各种困境:气候问题、资源分配问题、区域冲突、疾病大流行,都可能找到另外的解法。在这种巨大的好处面前,AI带来的威胁只是另一个我们会顺水推舟地解决的问题,就算AI有了意识,新的意识形态也只会让我们的感知更加多样化,这正是我们想要的。

第一版有效加速主义宣言节选

而Altman,虽然没有大张旗鼓地在自己的ID里带上有效加速主义者的标识,但他早就因为一系列言论和行为被有效加速主义者视为重要的一分子。

Altman是有效加速主义者的证据:

  • 2023年2月, Altman在博客文章中提到了通用人工智能模型可能带来的安全问题,但他的结论依然是OpenAI应该持续发展。3月,多位AI领域的专家签署了呼吁暂停AI发展的联名信后,Altman再次表示同意信中提到的部分安全问题,但暂停研发并不是应对挑战的最佳方式。

  • Altman认为,限制OpenAI的发展对美国政府来说是愚蠢的,如果OpenAI的发展被政府的监管阻碍了,中国就可能一马当先,掌握控制全人类的力量。

  • Altman明确表示不知道AI会如何发展,但他要尽最快速度去建造(“I just have to build the thing”),这和有效加速主义者“Don’t be afraid, just build”的宣言几乎是一个意思。

  • Altman在接受采访时曾表示,无论AI的终局是什么,他对发布ChatGPT都未曾有过一秒钟的后悔。


五、和人工智能一起进化的未来

不管是超级对齐还是有效加速主义,他们都相信同一件事,那就是AGI将在有生之年诞生并颠覆我们的社会。

在Altman的描述中,AGI将会永远地改变现在社会的分配模式,在未来,算力会成为最有价值的商品,因为算力能驱动AI“做任何事情”。

如果有钱人买下所有的算力,那么AI就会按他们的意志来行动,穷人会更难翻身。Altman认为,解决这个问题的办法是,地球上的每个人每年都获得AI总算力的80亿分之一,他们可以用这80亿分之一的算力做自己想做的事,设计建造更豪华的家,或者把自己的算力交易出去。

曾经获得图灵奖,现任Meta首席人工智能科学家的Yann LeCun对未来的预测也比较乐观。他最近在一次圆桌会议上谈到,智能与控制欲之间没有必然联系,“想象一下未来10到20年,AI会在日常生活中协助我们,它们可能比我们更聪明,但我们指导它们,它们服务于我们。智能本身并不意味着渴望控制”。

LeCun表示,我们完全可以设计一个极为智能但不具备控制欲的系统。

为了实现这一点,这个系统必须是开源的,训练方式必须是众包的,而不仅仅是由OpenAI、Google、Meta这样的公司专有。而开源,也是OpenAI成立之初就定好的规矩。

关于人工智能的争论还在继续,但不管是Altman还是Ilya,甚至是OpenAI,都不是这个故事的主角,正在卷积网络中默默酝酿的那个AGI才是。

参考文献

[1]https://openai.com/blog/introducing-superalignment

[2]https://www.businessinsider.com/openai-ilya-sutskever-burned-wooden-ai-effigy-sam-altman-report-2023-11

[3]https://www.technologyreview.com/2023/10/26/1082398/exclusive-ilya-sutskever-openais-chief-scientist-on-his-hopes-and-fears-for-the-future-of-ai/

[4]https://medium.com/@queenskisivuli/super-alignment-how-to-create-friendly-ai-d9684a611755

[5]https://mp.weixin.qq.com/s/NP-RHfEViDcICkWOmjMjsg

[6]https://twitter.com/dotey/status/1728820432613052859

[7]https://twitter.com/dotey/status/1728913073388368146

[8]https://openai.com/blog/introducing-superalignment

[9]https://openai.com/blog/openai-announces-leadership-transition

[10]https://coingeek.com/a-timeline-of-the-openai-crisis/

[11]https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/

本文来自微信公众号:果壳 (ID:Guokr42),作者:翻翻、Owl,编辑:翻翻

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2023年12月4日
Next 2023年12月4日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日