来源|商隐社
再有不到10天就是OpenAI发布ChatGPT满一周年的日子,近一年来,由ChatGPT引发的通用人工智能浪潮席卷了全世界,OpenAI也成为科技界当之无愧的明星公司。
然而,这几天OpenAI却为全世界上演了一出同样震撼的“宫斗大戏”。
从当地时间11月16日晚其前CEO、公司灵魂人物山姆·奥特曼(Sam Altman)被董事会罢免开始,奥特曼可能回归,OpenAI又换了两任CEO,奥特曼欲加入微软,OpenAI超700名员工“逼宫”董事会等戏码一一上演。
刚刚,“OpenAI宫斗大戏”似乎已阶段性落幕。OpenAI表示,已就山姆·奥特曼恢复CEO职务原则上达成一致,山姆·奥特曼将回到OpenAI担任CEO。同一天,奥特曼表示,期待着重返OpenAI,并巩固与微软的牢固合作伙伴关系。
折腾了好几天,OpenAI成了最大的焦点。原本以为像OpenAI这样的高逼格科技公司会像一台精密运转的仪器一样分毫不差,运转有序。但这几天发生的事正应了一句话:
“这个世界就是一个巨大的草台班子。
或许真实的商业里并没有那么多绝对理性,情绪、利益冲突、私心、毫无规划的一次行动等,都会让一个公司偏离原来的航道,触发牌局上的各个参与者,引发一连串的翻转。
但仔细看下来,OpenAI这家站在潮头的公司原本就存在着很难跨过去的三重门,今日之果,皆往事之因。即便奥特曼已回归,但这三重门仍然摆在OpenAI面前。
山姆·奥特曼
第一重门其实就是“OpenAI宫斗事件”的主角山姆·奥特曼自己。
奥特曼有着“硅谷新教父”“ChatGPT之父”之称,是OpenAI的灵魂性人物,过去一年里也被媒体塑造成用技术改变世界的天才形象。
他在这次事件里是受害者。这么厉害的人物,被董事会说开除就开除,还仅提前一天才得知自己被解雇的消息。而支持他的董事会前主席格雷格·布罗克曼(Greg Brockman)则仅提前不到10分钟才得到通知,他也很快公开声明辞职,后跟随奥特曼一起加入微软AI团队。
这使得奥特曼身上多了一些悲情色彩,获得了很多媒体的声援,有人甚至将其与乔布斯30岁时被自己创办的苹果公司炒掉的剧情联系在一起。
而作为对立面,疑似罢免奥特曼的主导者、OpenAI首席科学家伊尔亚·苏茨克维(Ilya Sutskever)及董事会则被看作是资本的代表。
苏茨克维看起来不只是主导罢免了OpenAI的“灵魂人物”,自毁长城。在OpenAI超500名员工(后超过700人)的“逼宫”下,他在X(原Twitter)发声:
我对自己参与董事会的行动深感遗憾。我从来没有想过要伤害 OpenAI。我热爱我们共同建立的一切,我将尽一切努力让公司重新团结起来。
他还在这些员工签署的以集体辞职威胁OpenAI董事会退出、要求奥特曼回归的公开信里,签下了自己的大名。
这似乎进一步显示了他的不得人心、自相矛盾和做事欠考虑。
由此,这个故事里的正反派各自归位,给了观众足够的想象空间,被资本斗创始人,OpenAI内部权力的游戏等戏码吊足了胃口。
但事实或许并非这么黑白分明。之所以说奥特曼自己是OpenAI的第一重门是因为,奥特曼是企业CEO、公司管理者,CEO的任务就是提供沟通系统、鼓励员工、塑造及界定目标。
从各大媒体的报道来看,苏茨克维代表的是OpenAI内部对AI的未来和OpenAI过快商业化表示担忧的声音,这是对路线的担忧,很可能引发路线之争,路线之争关乎一个组织的生死。
奥特曼不可能不知道这种声音的存在,但他并没有先把内部的思想统一起来。他专注于打造个人品牌,在外跟微软、孙正义等大资本打得火热,对内部的分歧可能并不当回事。
他仅提前一天才得知自己被解雇的消息,从另一个角度来看就是,缺乏对内部人际关系、人心变化的敏感性。大家都要搞他了,他还丝毫没察觉,按照自己节奏发布着更强大的GPT-4 Turbo和GPTs。
事实上,苏茨克维也是OpenAI的另一“灵魂人物”。他师从大名鼎鼎的AI科学家杰弗里·辛顿(Geoffrey Hinton),后者是图灵奖三大巨头之一,被业界称作“AI教父”。
2012年,辛顿、苏茨克维和辛顿的另一个学生亚历克斯一起发明了AlexNet神经网络,这算是大模型的骨髓,连“深度学习”这四个字都是他们命名的,影响了很多人。
当时全世界大大小小的公司都来邀请辛顿的师徒三人组,尤其是谷歌、微软、DeepMind、百度。大家互相竞价,百度的最终报价已经达到3亿元人民币,相当于每人1亿的offer,但谷歌最后出价4400万美元,师徒三人组进驻谷歌大脑(Google Brain)实验室。在谷歌,苏茨克维引入新的深度学习模型,将过去的机器翻译效果提升了一大截,完胜全世界其他的翻译团队。
2015年苏茨克维受到奥特曼和布罗克曼邀请加入OpenAI并担任首席科学家一职,尽管谷歌为留住他开出了远超OpenAI的薪水。苏茨克维在OpenAI推动开创了大模型的人工智能新技术范式,直接促进了ChatGPT的诞生,可以说是OpenAI成功的关键因素之一。
至于被拿来与奥特曼做类比的乔布斯,其实30岁时在管理上确实缺乏一些成熟和老练,当时他给人的印象是“顽固、倔强和喜怒无常”。
后来乔布斯用1000万美元收购了皮克斯,在皮克斯他的管理风格和性情发生了很大变化。
在皮克斯总裁艾德卡特姆的著作《创新公司:皮克斯的启示》中,乔布斯是温和而有智慧的,他“越来越懂得把握分寸,知道何时该对人施压,何时该适可而止,越来越通情达理,越来越睿智”。
还有,基于被赶出苹果的教训,乔布斯更会控制公司,在股权上一点也不慷慨,他在皮克斯牢牢把握着自己持有的80%股份,员工甚至怀疑他担心因50%以下的所有权而失去对公司的控制权。
在皮克斯,乔布斯在管理风格上变得张弛有度,在控制权上变得分毫必争,这些变化让归来后的乔布斯发挥出了更大价值。这两点也是38岁的奥特曼缺乏的。
奥特曼经历了这次事件,又迅速回归,是否能有乔布斯那样的反思和改变,值得进一步观察。
非营利机构
OpenAI的第二重门就是其四处漏风的股权架构。
最初,马斯克、阿尔特曼、布罗克曼、彼得·蒂尔等一群有实力、有视野的硅谷大佬聚在一起,聪明的头脑不断碰撞,想法得到发酵后决定成立OpenAI,募集了10亿美元资金。
当时他们是怀着某种担忧的。当时的AI技术基本上被谷歌、微软、Facebook垄断。马斯克在2014年说过:“AI是人类的最大威胁。”他认为,AI掌控在少数大公司手中,有失控的危险,世界需要一个不受这些公司控制的开源AI。
OpenAI最初的目标也并非是推动通用人工智能的发展,而是做出最有助于改进人类福祉、不被大公司垄断、人人皆可受益的开放AI。
凯德·梅茨的《深度学习革命》一书中写到,马斯克和奥特曼承认,如果他们公开所有的研究成果,那么坏人也可以利用它们。但他们认为,正是因为任何人都可以使用他们的技术,所以恶意人工智能的威胁会削弱。奥特曼说:“我们认为,很多人工智能更有可能去阻止偶尔出现的坏人。”
充满着浓厚的理想主义色彩。所以这些不缺钱的大佬把公司设置为非营利机构。包括奥特曼在内的一众创始人没有股份。
然而很快,OpenAI的创立者们发现,单有想要造福人类的理想远远不够——保持非营利性质无法维持组织的正常运营,因为想要取得科研突破,所需要消耗的计算资源每3—4个月要翻一番,这就要求在资金方面与这种指数级增长进行匹配,而OpenAl受当时非营利性质所限,远远没达到“自我造血”的程度。
此外,OpenAI的众多人才成了谷歌、Facebook和微软等行业巨头的挖角目标。这些财大气粗的行业巨头往往能开出高出数倍的薪水。钱在流失,人才也在流失。
非营利的目标留不住人才,撑不住研发。于是2019年OpenAI做出让步,有限度修改了非营利目标,成立了一个可盈利实体(OpenAI LP)负责融资,来负担愈发昂贵的研发成本,不过设置了投资者可获得不超过100倍的盈利回报的上限。有点犹抱琵琶半遮面的感觉。
OpenAI的架构
这迎来了微软的10亿美元投资,解了OpenAI的人力和算力之困。也成为微软走出的关键一招。
但目标的修改也导致了团队一些核心成员的出走,比如2021年,研究副总裁达里奥·阿莫迪带着OpenAI的近10名核心员工创办了一家名为Anthropic的AI公司。
而OpenAI也没有对股权架构做进一步的修改,仍把非营利作为最终目标。最大投资人微软在董事会也没有席位。
董事会是“OpenAI所有活动的总体管理机构”,类似罗马的元老会。
可以说,OpenAI的股权架构根本解决不了公司属于谁、归谁管的问题。产权跟管理权严重不匹配。
这些基于美好理想对现实问题的回避,其实根本避不开。成为公司发生分歧时无人能够力挽狂澜,稳住组织,而是出现一幕幕惊诧现象的导火索。
理想主义的落地,需要现实主义的承接。
尼采说,“理想主义者是不可救药的,如果他被扔出了他的天堂,他会再制造出一个理想的地狱。”
OpenAI最初试图不被大公司垄断,然而微软差一点就成为这起闹剧的最大受益者,获得AI领域更大的垄断。
创造什么样的AI
OpenAI的第三重门还是创造什么样的AI的问题,这也是全世界所有开发AI的公司都会面对的一个问题。
自从有AI,就时刻伴随着担忧、欣喜、怀疑等各种情绪,也分为不同阵营,从大的层面来看,就是“AI是造福人类还是毁灭人类”这样的问题。
近几个月,“图灵三巨头”辛顿、约书亚·本吉奥(Yoshua Bengio)和杨立昆(Yann LeCun)就在社交平台上已展开多轮对决,媒体将这称为“加速论者”(即希望加速AI相关社会进程以对抗阻力,产生巨大社会变革的信徒)和“毁灭论者”之间的争论。
辛顿是AI模型的奠基者,但当AI涌现出不可思议的能力时,他却开始担忧。他不止一次对外界警告,AI可能会有独立思考的意识,甚至试图接管或消灭人类文明。
从小一点的层面看就是,如果AI潮流不可阻挡,应该怎样更好地实现AI。
有媒体称,奥特曼跟苏茨克维的分歧也在于此。奥特曼认为通过迭代部署产品、筹集资金和建造更强大的计算机可以更好地实现AGI;但苏茨克维认为通过对“AI对齐”等方面进行更深入的研发,并投入更少的资源来制造面向消费者的AI产品,可以更好地实现AGI。
应该说,实现平衡AI发展、安全性和商业化之间的关系是一个相当复杂的问题,千头万绪。要综合技术、道德、法律等方方面面,其中还夹杂着野心、欲望、恐惧等。这里面必然有很大争论,一时间也必然没有结论,需要持续地思考和观察。
好消息是,至少在未来几十年里,我们不用担心科幻小说里那种AI产生意识、杀光或奴役人类的噩梦。我们会越来越依赖算法为我们做决定,但算法并不太可能开始有意识地操纵人类。
智能和意识是天差地别的两种概念。智能是解决问题的能力,意识则是能够感受痛苦、喜悦、爱和愤怒等事物的能力。我们之所以会两者不分,是因为对人类来说,智能与意识会携手同行。我们处理大多数问题时靠的是“感觉”,但计算机会用完全不同的方式来解决问题。
这里引述尤瓦尔·赫拉利在《今日简史》中的观点:
这里的危险在于,如果我们太注重发展人工智能而又太不注意发展人类的意识,那么计算机有了极先进的人工智能之后,可能只会增强人类的“自然愚蠢”。
在未来几十年内,我们不太可能碰到机器人叛乱的问题,但机器人可能会比你的父母更知道怎样可以触动你的情绪,并且会运用这种神奇的能力来对你进行推销,让你想买某辆车、想把选票投给某个人,或是想接受某种意识形态。这些机器人能够找出我们最深层的恐惧、仇恨和渴望,再用它们来对付我们。
科幻惊悚片常常上演的是烈火浓烟、轰轰烈烈的末日景象,但实际上,末日景象可能是在一次又一次的点击当中悄悄而且平凡地来临。
想避免这种结果,每投入一美元、一分钟来提升人工智能,就应该同样投入一美元、一分钟来提升人类意识。但很遗憾,目前对于人类意识的研究和开发并不多。