OpenAI宫斗背后真正的“无形之手”

而在某种程度上,OpenAI过去一周的动荡,本身也是一场由此产生的理念之争:一方是相信市场规律的群体,而另一方是相信赋予道德、理性、数学和精确调整的机器,才能更为安全地指引人类未来的有效利他主义者。Information》的一篇评论文章中就写道:“OpenAI董事会成员对’有效利他主义’的信仰及其错误应用,可能会阻碍世界通往人工智能的巨大利益之路。

在过去几年里,被称为 “有效利他主义 ”的社会思潮运动,在硅谷各人工智能公司的员工和高管之间产生了激烈的分歧。

而这股思潮的信奉者与非信奉者间的针锋相对,似乎也正成为OpenAI过去一周震惊世界的“宫斗事件”背后,真正的“无形之手”。

有效利他主义是如何影响AI领域的?

有效利他主义(Effective Altruism)于21世纪初萌芽,这套哲学理念希望用证据和推理来选择最有效的方式以造福他人,即最大或更好地行善。对有效利他主义者而言,一个很重要的目标就是改善这个世界,而且做到愈有效率愈好。这意味着:他们会透过理性分析、状况衡量,确保手中的资源能够发挥最大的作用,以最终达到改善世界的目的!

这个理念被那些致力于动物权利和气候变化的人所接受,他们从哲学家、数学家和未来预测家那里汲取思想,影响着硅谷和其他地方的人工智能研究界。

按照这一理念推演,在互联网科技领域,“开源”“免费”“去中心化”等均有利于最大程度地行善,而以营利为基本目标的公司组织形态则与之背道而驰。而在AI领域,有效利他主义者相信,精心打造的人工智能系统在注入正确的人类价值观后,将带来一个黄金时代,但如果做不到这一点,可能会带来世界末日般的后果。

OpenAI于一年前发布了ChatGPT,它的问世其实就部分基于有效利他主义的原则。

奥特曼和马斯克于2015年开始组建OpenAI,两人当时的愿景便旨在实现通用人工智能(AGI),这是一种推理能力达到或超过人类水平的系统。他们当时表示,希望以一种造福人类的方式实现这一目标,而不仅仅是为企业牟利。

而在某种程度上,OpenAI过去一周的动荡,本身也是一场由此产生的理念之争:一方是相信市场规律的群体,而另一方是相信赋予道德、理性、数学和精确调整的机器,才能更为安全地指引人类未来的有效利他主义者。

四位董事中有三位有效利他主义者?

有效利他主义者认为,一味追求人工智能可能会毁灭人类。对于人工智能的发展,他们更倾向于注重安全而非速度。而不少这场运动的参与者,本身便是过往一年帮助形成人工智能热潮的引领者。

熟悉OpenAI内部争议的人士表示,上周五被OpenAI董事会解雇的奥特曼,与公司首席科学家兼董事会成员Ilya Sutskever在人工智能安全问题上,就曾发生过激烈冲突。而Sutskever过往的一系列立场,其实就反映了有效利他主义者对当前AI高速发展的担忧。

如同许多人在这场OpenAI“宫斗大戏”后了解到的那样,Ilya Sutskever是“深度学习之父”Geoffrey Hinton的学生。Geoffrey Hinton今年早些时候从谷歌辞职,就是为了能更好地对人工智能安全提出警告,而作为Hinton的学生,Sutskever对AI的担心很早就存在。

在今年7月,OpenAI正式宣布成立一个新的研究团队“超级对齐”(Superalignment)团队,这恰恰便是由Sutskever领导的一项工作——计划未来4年投入20%算力,用AI监督AI的方式,解决超智能“AI对齐”问题。“AI对齐”的意思是,要求AI系统的目标要和人类的价值观与利益相一致。

而与Sutskever存有类似观点的,还有最初投票驱逐奥特曼的另两位董事——Tasha McCauley和Helen Toner。

Tasha McCauley是一位技术高管,也是有效利他主义慈善机构——有效风险投资公司(Effective Ventures)的董事会成员,而Helen Toner则是乔治城大学安全与新兴技术中心的高管,该中心得到了一个致力于有效利他主义事业的慈善机构的支持。熟悉内情的人士说,他们在董事会中占到了推翻奥特曼所需四票中的三票。

OpenAI周三宣布,奥特曼将重新担任该公司首席执行官,而上述三人——Ilya Sutskever、Tasha McCauley和Helen Toner,则均已不在最新的董事会成员名单之上。

可以说,有效利他主义阵营虽然在这场“宫斗大戏”的前半段,闪电般地驱逐了奥特曼,但最终仍在这场博弈中“一败涂地”。然而,眼下发生在OpenAI身上的一切,就真的已经是这场故事的最终大结局了吗?

显然,未必!

理念之争料将伴随AI发展

事实上,从2014年左右开始,有效利他主义者就已经开始意识到先进人工智能系统存在导致人类灭绝的风险——这被他们视作一种与气候危机程度相当的危险。这一启示恰逢瑞典哲学家尼克·博斯特罗姆出版了《超级智能》一书,该书将“回形针”作为人工智能危险的象征。

这个设想的概念很简单,但却又很可怕——如果一台机器的唯一目标就是最大化的量产回形针,那它有可能会发明些匪夷所思的技术,只为了把宇宙中能用的资源都转化成回形针,最终毁灭人类。

去年秋天的一天,数千个OpenAI徽标形状的回形针,被寄到了该公司位于旧金山的办公室。似乎没有人知道他们来自哪里,但每个人都知道他们的含义……

这个恶作剧据说是由OpenAI同城竞争对手Anthropic的一名员工干的,该公司本身就是由一群OpenAI出走的前员工创建,单飞的原因据说也是基于人工智能安全问题的分歧。

而很有意思的是,在Ilya Sutskever等人上周末最初逼走奥特曼后,第一时间爆出的消息——居然便是想要让OpenAI和Anthropic合并。

在许多并非有效利他主义的信奉者眼中,他们的思想似乎很难被认同。风险投资家、OpenAI投资人Vinod Khosla在《The Information》的一篇评论文章中就写道:“OpenAI董事会成员对’有效利他主义’的信仰及其错误应用,可能会阻碍世界通往人工智能的巨大利益之路。”

奥特曼今年春天在全球巡回演讲时,虽然警告人工智能可能造成严重危害,但他同样认为有效利他主义是一种“漏洞百出的运动”,表现出“非常奇怪的突发行为”。

风险投资公司Andreessen Horowitz的联合创始人Marc Andreessen和初创企业孵化器Y Combinator的首席执行官Garry Tan也对这一运动提出了批评。Tan称这是一种没有实质意义的“美德信号哲学”,应予以摒弃,以解决真正的问题,创造人类的富足。

普林斯顿大学一个研究该运动的团队研究员Shazeda Ahmed则指出,有效利他主义者对人工智能将毁灭人类的迫切恐惧,“遮蔽了他们接受对该文化外部批评的能力。这对任何试图解决任何棘手问题的群体来说都不是好事。”

不过,人们如今显然将无法忽视有效利他主义在硅谷乃至AI领域的影响力。这场运动的支持者包括Facebook的联合创始人Dustin Moskovitz和Skype联合创始人Jann Tallinn,他们已承诺为有效利他主义研究提供数十亿美元。在去年FTX爆雷之前,FTX创始人Sam Bankman-Fried也曾认捐了数十亿美元。

最后,还有一个举足轻重的名字显然更为不容人们忽视——特斯拉CEO马斯克。

马斯克曾表示,有效利他主义运动的创始人、英国哲学教授威廉·麦克阿斯基尔(William MacAskill)“与我的哲学非常吻合”。而在过去一年,马斯克已多次表达了对AI可能毁灭人类的担忧。

本文来自:财联社,作者:潇湘

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2023年11月23日 18:43
下一篇 2023年11月23日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日