MIT校长对话奥特曼:GPT-5或将数据与推理引擎分离

两派学生的抗议阵营,来源:“甲子光年”拍摄

作为OpenAI的掌舵人,奥尔特曼和团队一直不断打破人工智能领域的边界。

奥尔特曼主要聊了以下七点:

相对于讨论AI引发灾难的概率,我们更应该关注如何避免AI带来的灾难。

OpenAI被推到今天的位置,是因为ChatGPT的迭代速度,某种程度上代表了自然语言处理(NLP)的技术发展和AI应用的爆发速度。

继4月24日科技界的“顶流”,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)在斯坦福大学进行演讲后,他又从硅谷横跨美国来到了麻省理工学院(MIT)。这次的炉边谈话,奥尔特曼与MIT校长莎莉·科恩布鲁斯(Sally Kornbluth)共同探讨了人工智能的未来发展。

当地时间5月2日中午13:00,距离这场对话开始还有2个小时,就有观众来到了活动所在的MIT Swraj Paul剧院。演讲开始前1个小时,门口已排起长龙。由于报名的人数太多,组织方不得不启用摇号的方式分配门票。

Swraj Paul剧院前的队伍长龙,来源:“甲子光年”拍摄

令人唏嘘的是,在活动的不远处,对巴以冲突持不同观点的两派学生正在抗议。就像这个时代的割裂缩影,冲突频发和科技跃迁,希望与挑战并存

两派学生的抗议阵营,来源:“甲子光年”拍摄

作为OpenAI的掌舵人,奥尔特曼和团队一直不断打破人工智能领域的边界。所有的目光都集中在舞台上,这不仅是关乎一个公司的故事,更是一场关乎人类创新阈值的对话——它关乎希望、责任与未来。

正如活动的主持人、MIT董事会主席马克·戈伦伯格(Mark Gorenberg)在开场时所说:“当大多数人提及生成AI时,便会立即想到OpenAI和奥尔特曼。”

对话活动现场,来源:与会者提供

奥尔特曼这次的分享依旧主打一手“情怀”,关于技术本身则鲜有剖析。一个小时的对话,他用直白的语言描绘出了一个“人类所用工具(tools for human)”的未来。但对于谈话内容,有MIT的同学听过后对“甲子光年”表示“深受鼓舞”;也有人认为他“净讲些‘虚头巴脑’的大概念”。

奥尔特曼主要聊了以下七点:

相对于讨论AI引发灾难的概率,我们更应该关注如何避免AI带来的灾难;

OpenAI在做的是“人类用的工具”,不是在创造生物;而人类充满偏见却往往不自知;

在参数中保存数据很“奇怪”。GPT-5或GPT-6可能尝试将数据与推理引擎分离;

气候也许不是一个大挑战,但训练所需的能源是一个挑战;

AI不会抢夺人类的工作。未来每个人可能都会拥有一个由AI驱动的完整公司;

他对AI在健康和教育领域中的影响最感兴趣,但对金融没有太多思考;

OpenAI的使命是使计算更可及、更自然。未来不再需要掌握编程语言。

OpenAI被推到今天的位置,是因为ChatGPT的迭代速度,某种程度上代表了自然语言处理(NLP)的技术发展和AI应用的爆发速度。

人类对技术进步的快速适应,让期待也在不断增长。就像奥尔特曼在对话中所讲的:大家对GPT-4兴奋了两周,转而又迅速询问GPT-5的进展(Everyone was excited about GPT-4 for two weeks, but then quickly shifted focus to asking about GPT-5)

一、面对AI技术革命,“既乐观又悲观”


科恩布鲁斯和奥尔特曼走上台时,掌声不断。来源:与会者提供

“你的‘末日值’是多少?”

伴着科恩布鲁斯抛出的第一个问题,对话正式开始。她向奥尔特曼介绍,这场对话的所有问题,都是由学生提出、校方筛选的。

所谓“末日值”(probability of doom,简写为p(doom)),即指个人认为AI可能带领人类走向末日的机率,也是近期硅谷科技新贵们最常挂在嘴边的问候语。

这个指标的范围从1到100。数字越高,表示个人越相信AI会消灭所有人类并导致世界末日。

“我认为这个问题表述不太恰当,问题假设了一种静态的系统。”奥尔特曼回答,“虽然我自己也乐于对数字进行长篇大论。但不管这个数字是2、10、20或90,关键点在于它不是0。讨论灾难概率虽然能激发深思,但相比之下,我们更应该关注如何避免灾难,确保我们能安全、积极地面对未来。

同时,奥尔特曼认为AI现阶段还没有“做得足够好”。十年前,他对AI有一种更“天真”的看法,将其视为一种能自行解决问题、带来财富的“魔法超级智能”;但现在,他认为AI更像是一场“技术革命”,为人类带来希望。

而对于这场技术革命,奥尔特曼是既乐观又悲观的。

他一直反复强调的观点——AI是人类科技树上的新工具(a new tool in the tech tree of humanity)。在斯坦福演讲时,奥尔特曼同样提到OpenAI在做的是“人类用的工具(a tool for human)”,并不创造生物。人类没必要害怕超级智能的人工智能,每个新模型的缺点也是它们持续迭代的动力。

长期以来,AI一直被诟病存在价值观问题:谁来定义什么是偏见,什么是价值观?如何决定系统应该执行什么任务?社会应该在多大程度上定义这些边界,而我们又应该在多大程度上信任用户合理使用这些工具?

对于这个困境,奥尔特曼的想法是在明晰技术的潜力和限制的同时,还需在技术潜能和道德限制之间找到平衡。通过人类反馈进行强化学习(RLHF)等技术,可以消减模型偏见的缺陷。

“人类本身就是充满偏见的生物,但往往并不自知。”他说道,“像GPT-4或之后的GPT-5这样的模型没有和我们相同的心理缺陷。虽然它们不完美,但总的来说,我这些系统会比人类表现得更公正。”

除偏见外,AI发展的另一个核心问题是如何在用共享数据训练AI模型时保护个人隐私。

随着技术的进步,一个全知全能的个性化AI并非与我们遥不可及:它能追踪我们的电子邮件、短信和生活记录,甚至我们看过的电视节目和文件夹。

奥尔特曼将称它是“让人又爱又恨的存在”:便利生活同时也带来了极大的隐私风险。

诚然,我们已在互联网时代中牺牲了一部分隐私以获得便利,AI的介入会让这种权衡更为复杂。“在AI发展的背景下,我们需要重新定义‘特权信息’的概念,以防止个性化AI在法律上被用于不利于我们的情况”

“我们得的GPT-5或GPT-6成为最佳的推理引擎,目前而言,能达到最佳引擎的唯一路径就是训练大量的数据。”但奥尔特曼认为,实际模型在处理数据时浪费了许多数据资源。

比如GPT-4。它也能像数据库一样工作,只是推理速度慢、成本高昂且效果“不尽如人意”。这些问题在本质上是模型的设计和训练方式导致的资源浪费。

“不可避免,因为这是我们制作推理引擎模型的唯一方法的副作用。”但他能预见未来会有新方法,将模型的推理能力与对大数据的需求性剥离。

值得注意的是,就在奥尔特曼演讲的同一天,有网友在X上发文表示,OpenAI创建了一个新的搜索服务的域名:http://search.chatgpt.com,并由此推测Open在微软Bing的支持下,可能正在开发一种新的搜索服务。

图片来自X

它或将成为谷歌搜索最大的威胁,甚至完全迭代当前的搜索引擎的方式。

随后,科恩布鲁斯问了奥尔特曼一个略为“扎心”的问题,即OpenAI的闭源决策,并希望他能多说“亿点点”。但奥尔特曼选择含糊带过,言下之意就是“我们”已经提供免费的AI工具了(GPT-3.5),还要什么“自行车”。

谈及能源,奥尔特曼认为,AI的能源需求虽然巨大,但相比全球其他需求仍属于小规模。在这样的对比下,如果AI能助人类寻找到非碳能源,或优化碳捕获技术,即便耗费1%的全球电力,这也会是一种“巨大的胜利”。同时他也表示看好核聚变。

二、“当下是AI创业的最好时机”


宣传视频是由AI生成,其中机器人代表着OpenAI,海狸是MIT的吉祥物。来源:与会者提供

AI创业一直是备受关注的问题。

奥尔特曼这次活动再次强调了他的观点:在接下来很长一段时间里,都是初创公司的最好时机。

初创企业一般能在大型平台变革期间获得成功。相比之下,大公司虽然资源丰富,但在创新和迅速反应方面往往不如初创企业灵活。

目前我们处于类似互联网初期和移动互联技术兴起时的历史性时刻。如同云服务和AWS推动了之前的技术变革,AI技术平台正在形成,为创业提供了绝佳的机遇。

但在技术革新的热潮中,初创企业也不能忽视传统商业策略的重要性,需要在追求创新的同时,建立牢固的客户关系和市场地位,“这些都是持久成功的关键”。

AI技术的兴起对未来的就业市场同样有着重大影响。

根据领英最近的劳动力市场调研,生成式人工智能(GAI)技术的兴起正在对全球职业市场产生深远影响。2023年,已有超过500种职业技能可能受到AGI的影响,预计到2030年,将有65%的职业技能发生变化。

高盛的研究也指出,在美国和欧洲,生成式AI对职业任务的自动化威胁显著,目前美国大约2/3的工作在一定程度上面临AI自动化的风险,且生成式AI可能取代1/4的岗位。在全球范围内,生成式AI的发展可能使3亿个全职工作岗位面临淘汰的危险。

“有观点认为AI将带来职业的消失,但技术革命也会创造新的职业机会。AI会改变很多工作的性质,并带来全新的职业类别。”奥尔特曼解释道,“这种变化需要时间来显现其经济影响,好的或坏的,都将是我们可以实际测量和感受到的。”

创业者和就业市场面对的是一个快速变化的技术环境。关键在于适应这些变化,找到与新技术共存的方式。

科恩布鲁斯和奥尔特曼也从AI监管的角度对创业、就业的影响进行了讨论。

科恩布鲁斯提到了美国国家层面对AI技术的监管,她提到有人担心过度的监管可能会巩固大公司的地位,限制小企业和创新者的发展机会。

对此,奥尔特曼认为在于“合理的阈值”。“完全不监管AI的想法虽然存在,但最终还是要通过民主进程来决定。”他分享了自己的观点,监管政策的制定需要既保护消费者安全,也要避免对小型企业和创新者的过度压制。

随着时间的推移,计算机技术变得越来越易于接触和使用。从低级编程语言到现在的高级编程语言,技术的演变使得编程变得更加直观和强大。这种从命令行到图形用户界面(GUI)的转变,以及从物理键盘到触摸屏的过渡,都标志着用户与计算机交互方式的演化。

“OpenAI的使命是使计算更可及、更自然。”奥尔特曼说。像ChatGPT这样的自然语言处理技术,正在推动AI与人类使用相同的交互界面,这种趋势可能会终结未来技术使用者对编程语言的需求。

而在具体的行业上,奥尔特曼表示自己最关注AI对健康和教育领域的影响,对金融领域的思考并不多。

在教育领域,AI的应用有巨大潜力实现课堂教学的个性化和优化。AI可以根据每个学生的学习进度和风格调整教学内容和节奏,让教育更加符合个人需求。

“我认为AI时代出生的婴儿永远无法想象一个没有智能产品和服务的世界。”奥尔特曼说。毋庸置疑,AI技术的发展正在推动社会各个层面的变革,从个性化服务的提供到教育模式的优化,再到职场技能的重新定义。

在这场演讲之外,ChatGPT等多重AI产品,正在帮助人类塑造一个更加智能化、个性化的未来。

这很容易让人联想到人工智能创造力,或称计算创造力。这是一个研究如何设计出能达到甚至超过人类水平创造力的程序的多学科领域。

有关该领域的讨论可以追溯到19世纪,“计算机程序之母”埃达·洛夫莱斯曾质疑机器的独立创造力,但近年来无监督学习的进步让人们重新考虑AI的创造潜能。目前有两种主流观点:一种看待AI作为人类创造性的增强工具,另一种则希望AI成为完全独立的创造者。

AI在模仿和生成新内容方面取得了显著进展,但由于缺乏真正的情感理解和直觉,生成式人工智能不能替代人类的智慧和洞察力。正如斯坦福大学教授李飞飞所言:“AI替代不了人性的部分,就像宫崎骏永远也不会被AI替代。”

我们将被机器赋予越来越多的超能力,但作为人类的核心不会被取代。

本文来自微信公众号:甲子光年 (ID:jazzyear),作者:苏霍伊,编辑:田思奇

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年5月4日
下一篇 2024年5月4日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日