在AI意识觉醒的那一刻,人类会被蒙在鼓里吗?

如果AI拥有意识,人类的麻烦就大了

不同于学者们激烈争论的场景,多数吃瓜群众并没有严肃地考虑过AI具备意识的问题,或是笼统地相信AI获得意识只是时间问题,因此也并不是非常重要。

七十年后的今天,“智能”程度也不再是人类关注机器能力的单一维度,当我们在潜在的威胁之下,开始谨慎地观察AI是否具有自我意识的今天,学界和业界亟待一个新时代的“图灵测试”,照亮下一个七十年的AI时代。

人工智能(AI)是否能够变得“有意识”?而我们又该如何判断它是否真的具备了这种意识?很多学者和科幻作者们都思考过这个问题。

尤其在过去的两年时间里,警报声接连响起。包括“AI教父”Geoffrey Hinton、OpenAI的联合创始人及首席科学家Ilya Sutskever等顶尖专家都先后表示,AI将有可能具备自我意识。

在前大模型时代,AI应用已经逐渐深入社会的角落,如人脸识别、语音识别等,这些技术看似高端复杂,实质上却只是程序运行的结果。而程序从未真正理解自己的行为。这就是缺乏自我意识的人工智能,即使再先进,也只是完全受人类控制和指使的“木偶”。

所有人乐见其发展,这背后的语境是所有人都默认:工具有先进和落后之分,但工具永远不会有生命。

如今,ChatGPT的故事大家应该知晓了,像一个火堆上的火苗,把实验室里的一项前沿探索,变成了多数接入互联网的人都能用上的神奇技术。与此同时,对于AI意识觉醒的担忧也越来越重。

这是因为,我们需要AI更加智能,而非拥有意识。缺乏意识,AI仅仅是人类的工具,其智能程度越高对人类越有用;反之,即使在许多方面弱于人类,只要具备意识,AI就可能对人类构成潜在威胁——我们不希望算法随意罢工,更不能接受世界被AI控制

那么,我们就需要密切监测AI技术的发展,以防错过AI意识觉醒的关键时点。

近期,包括了图灵奖获得者、深度学习三巨头之一的Yoshua Bengio在内,一组由19名计算机科学家、神经科学家和哲学家组成的团队着手探讨这个问题,在近期发布的一篇长达120页的预印本论文中,团队提出了一种方法:用一系列复杂的参数和属性,初步判断一个AI是否具备意识。

寻求答案的努力才刚刚开始。

测试AI是否具有意识,亟需一张“考卷”

此次研究的背景是,即便在学术界,如何判断AI是否具有意识,也是一个缺少定论的问题。基于神经科学的理论,通过脑电图或磁共振成像检测到的人类大脑内部工作信号,可以得到“人具备意识”的结论。但这套成熟的方法无法用在算法上。

于是他们基于认知神经科学的理论和认知,首先从当前的人类意识理论中提取有关有意识状态的核心特征,然后在AI的基础架构中寻找这些特征,以此寻求线索。

研究团队从当前多种意识相关的理论中提取了具体特征,包括:

  • 循环加工理论 (recurrent processing theory, RPT):该理论认为,意识源于大脑通过“反馈循环”将经验传递,利用先前知识和连接来理解当前经验;

  • 全局工作空间理论(global neuronal workspace,GNW):理论解释我们的大脑如何协调和处理同时发生的众多信息流。在这一理论中,意识被定义为类似于心理舞台上的聚光灯,决定我们关注什么和忽略什么;

  • 高阶理论(Higher order Thought theory, HOT):这是一组理论,认为意识是对我们的思想和感觉进行实时感知的结果。在这里,意识被定义为能够“思考”;

  • 注意图式理论(Attention Schema Theory, AST):该理论解释意识是大脑引导我们的注意力到特定对象、思想、记忆和其他刺激的结果,同时过滤掉其他刺激。这一理论的关键元素是意识到我们的注意力是如何以及在何处被引导的能力;

  • 此外,研究人员还增加了基于预测处理的标准,即大脑基于过去经验准确预测和解释周围世界的能力。这对于设计能生成创意内容或解决复杂问题的AI模型来说尤为重要;

  • 研究团队还制定了根据代理性评估AI的标准,即做出有意识决策的能力,以及根据实体性在物理空间或相对于其他虚拟系统的具体化程度。

基于上述核心意识理论,研究团队制定了14个标准和具体的测量方法,然后按照这个清单评估人工智能模型。

他们的结论是,目前市面上的AI还不具备意识。一方面,结果说明了现阶段的AI能力或许还没到能够形成意识的阶段;另一方面,在人为制造、训练AI模型的过程中,开发者并不会有意让AI全方面形成这些认知能力,“之所以没有人这样做,是因为目前尚不清楚它们对于任务是否有用。”论文作者之一Eric Elmoznino表示。

同时该研究认为,一个AI架构能够达到的指标越多,具备意识的可能性就越大。而测试结果发现,市面上非常多模型在“循环加工理论”这个指标上完成较为出色,而ChatGPT则在“全局工作空间”方面表现突出。但总体来说,纳入测试范围的所有AI模型都只能完成少数几个指标,由此得出没有某一个模型能够形成自我意识。

不过研究人员强调,此研究的初衷是引发更多问题和讨论,并为谈论AI模型的意识问题提供一个起点。论文合著者、旧金山非营利组织AI安全中心的Robert Long表示,这项工作为评估越来越具有人类特征的AI提供了一个框架。“我们正在引入一种之前缺失的系统性方法。”

这套测试方法的严谨性还需进一步的验证,但不管后续发展如何,此举都可以说前所未有。科学家把一套研究人类意识的理论拿来测试AI,这也是AI能力突飞猛进的一个例证,以至于科学家要为其出一套更高级的“考卷”。而在意识和认知这件事上,AI越接近人类,问题和灾难就离人类更近

如果AI拥有意识,人类的麻烦就大了

不同于学者们激烈争论的场景,多数吃瓜群众并没有严肃地考虑过AI具备意识的问题,或是笼统地相信AI获得意识只是时间问题,因此也并不是非常重要。科幻小说或电影在其中发挥了不小的作用,毕竟在大多数未来主题的电影中,AI都被描绘成具有意识和情感的存在。但实际上,很多人都低估了这个问题的重要性,但它却可能决定着人类未来的走向。

与人脑有限的处理能力相比,AI的理论处理能力是无限的,能够无差别地处理所有收集到的信息。而一旦AI获得了意识,能像人类一样交流、分享信息,且在效率上远超过人类,其带来的结果可能是,AI的智能水平将迅速提升,并可能“淘汰”包括人类在内的低智能主体——犹如智能手机的问世,将上个时代的功能机无情淘汰。

威胁会变得非常具体。Hinton在离开谷歌后不久的访谈中表示,“这些由我们创造的智能体非常强大,并且从人类身上学到所有东西,比如通过阅读所有的小说以及马基雅维利写的关于如何操纵人的书,如果他们学会了如何操纵人类,你我作为人类甚至无法意识到这个过程是如何发生。你会像一个2岁的孩子被问到:‘你想要豌豆还是花椰菜?’你不会意识到你其实可以两样都不选,你就会变得容易被操纵。”

对于最极端的想象,Hinton表示,一旦AI、数字智能体开始获得对世界的直接体验并且学习能力加强,一段时间内数字智能可能还会乖乖和人类待着,因为它们还需要人类为他们发电,但在之后的某个时间可能就不用了。最终,人类就成为了智力进化的一个过渡阶段,世界将进入一个机器的时代。

要实现这个幻想中的场景,一方面AI需要在“智能”方面继续进化,而另一方面,也是更重要的,即AI需要具备“操纵”的目标和意图,而目标,即是一种意识的体现。

当然了,现实可能没有那么可怕,至少在现在。在AI“摧毁”人类社会之前,也可能引发道德伦理方面的问题。德国神经科学家、意识和神经科学领域代表人物Christof Koch曾在探讨AI意识时提到一个例子:如果一个人用锤子砸烂自己的一台车,邻居可能会认为他疯了,但不管怎么说,这只是他的个人财产;但如果一个人虐待自己的宠物狗,警察就会上门,道德层面的谴责也必定少不了。二者的核心区别在于,狗是有意识的,能够感受到痛苦,而车并非有意识的主体。

而当机器成为有意识的主体,那些我们从未预想过的道德、伦理、法律和政治影响都会随之而来。

显然,人类社会还没为此做好准备,其中也包括了整天研究前瞻性问题的学者。而前述研究也可以视作是学界作出的努力,在新的AI时代建立新的“图灵测试”。

艾伦·图灵

1950年,被誉为“计算机之父”、“人工智能之父”的艾伦·图灵(Alan Mathison Turing),曾经以一己之力在智能领域立下了测试标准,当年发表的《机器能思考吗?》一文中,图灵首次提出“图灵测试”,大胆地设想机器将拥有思考能力,并提出了测试机器智能程度的方法:通过打字机与人沟通,如果有超过30%的人在特定时间(5分钟)内无法分辨出是人还是机器,则可认为该机器具备思考能力

这一测试方式的独到之处在于,“意识”“思维”“智能”难以通过定义解释,因此测试更直观地以人类作为参照物,通过机器表现是否与人类难以区分来判断其是否具备人类智能。

时至今日,“图灵测试”仍是衡量AI智能程度的重要标尺。但一些研究者指出,这一测试手段已经过时,它过于体现人类中心主义,其设计本身也存在缺陷。同时,这一测试催生了一种欺骗性思路,即AI只要成功“欺骗”了人类,就可被视为是拥有“智能”的主体,这在某种程度上误导了AI研究的发展方向,对“智能”的评判也并不科学。

七十年后的今天,“智能”程度也不再是人类关注机器能力的单一维度,当我们在潜在的威胁之下,开始谨慎地观察AI是否具有自我意识的今天,学界和业界亟待一个新时代的“图灵测试”,照亮下一个七十年的AI时代。

没人能紧急拔掉AI的插头

在一次访谈中,主持人向Hinton提出了一个朴素但深刻的问题:如果我们认为AI很可怕,直接拔掉它的插头是否是一种解决办法?

这个问题在理论上似乎可行。但Hinton认为,越是先进、聪明的AI,越是让人们难以舍弃,而这也意味着更难以控制。

Hinton认为,停止进一步开发相关技术虽然看起来很有效,但这种想法太过天真,“即使美国停止开发,其他国家也会继续,并将AI用于武器。”对于发出请愿书要求“停止开发人工智能”的提议,Hinton表示这也是一种天真的想法,因为实际上不可能发生。

类似的技术竞赛已经上演。2017年,谷歌推出了Transformer和扩散生成模型(diffusion model),但一开始并没有向所有人开放,谷歌一直小心谨慎,担心可能带来负面后果。然而,ChatGPT及其他语言模型相继面世,谷歌只能出于竞争和利益的考量选择跟上。

Hinton希望能够推动美国和其他国家之间达成协议,如同各国在核武器问题上达成一致一样。“如果让这些技术接管了我们,对我们所有人来说都是不好的,我们都在面临生存威胁,所以我们都应该合作。”在他的观点里,控制AI,已经演变成为一个社会科学问题。

Ilya Sutskever 也在多个场合强调AI可能具备意识和相应的威胁。

同样作为OpenAI的代表人物,他的言行和公司CEO Sam Altman形成了强烈的对比。尤其在OpenAI“宫斗”事件发生前,Sam Altman频频飞到全球各地,和各公司领导、政客握手,而Sutskever选择了一种低调的生活方式,除了偶尔接受采访和到学校演讲外,他大部分时间都在一座不太引人注目的办公楼里工作,然后回家休息。

这也是两人在关于AI未来发展方面存在巨大分歧的体现。Sutskever在采访中表示,目前他的工作中心已经不是造出下一个ChatGPT,而是致力于阻止超级AI变坏、不受控制。

从Hinton、Sutskever以及其他在做着类似努力的科学家身上,外界看到了曾经奥本海默的影子,在AI时代,努力阻止最终爆炸的发生。包括前文提到的测试在内,当学界、业界共识尚未形成,而AI能力爆炸式发展的当下,他们正在牵头开发一套评判体系、一套AI领域的基础设施,这些努力代表着一种秩序的开始,至少让更多人能够在AI的发展中遵循一定的规范,严谨地画出AI未来的安全线,最终建立清晰的标准和认知。

参考资料:

[1] https://arxiv.org/abs/2308.08708

[2] https://www.science.org/content/article/if-ai-becomes-conscious-how-will-we-know

[3] https://www.technologyreview.com/2023/10/17/1081818/why-itll-be-hard-to-tell-if-ai-ever-becomes-conscious/

[4] https://www.technologyreview.com/2023/10/26/1082398/exclusive-ilya-sutskever-openais-chief-scientist-on-his-hopes-and-fears-for-the-future-of-ai/

[5] https://www.americanbrainfoundation.org/how-will-we-know-if-ai-becomes-conscious/

[6] https://mp.weixin.qq.com/s/tazJu1C0Vy0c5xn91IRZIQ


本文受科普中国·星空计划项目扶持,出品:中国科协科普部

本文来自微信公众号:返朴 (ID:fanpu2019),作者:李贤焕

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年1月5日 10:09
下一篇 2024年1月5日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日