每个人都要适应AI再造的世界

一、适应AI再造的世界

ChatGPT代表的生成式人工智能给人类社会带来的巨大冲击,从长远来看怎么评价也不过分。把人类的历史拉长来看,就是一部变革史。技术变革本身可以通过制度安排来消化冲击和同步频率,比如大学传统设计专业的第一课是削铅笔,因为手绘处理不同线条需要不同形状的碳芯头。CAD的出现逐渐全面替代手绘,削铅笔也随之退出设计课。

但人类之所以历经多次技术变革而无需担心被替代,是因为之前的技术变革从轮子到蒸汽机、火箭和核能,都是沿着替代人类体力的路线发展。对体力的替代无疑是一种对生产力的解放,人类借助技术进步不断巩固自身造物主代言人的地位,直到令人喜忧参半的人工智能出现。AI对人类智能的不断超越,除了给社会带来新的发展机会,也让人类地位的可替代性史无前例地成为了一个现实选项。

撇开实现通用人工智能后人类与AI之间难以预料的关系,即使在当下也可以看出,AI在内容产业已经成为越来越具有决定性影响的资源。后生成式时代算法的进步使算力与智力日益可以通兑,智力资源将在研发、制造、应用等全部领域碾压其他资源,成为最优势的资源。智能发展趋势将取代传统的物质和金融资本,成为社会资源中最核心的一环。不同群体对AI的不同占有程度或者与AI的不同距离将重写阶层分配和社会版图。

所有人都将直面人工智能的崛起,如同汽车之于老福特,手机之于乔布斯。即使我们选择将思想冬眠,孩子们也要在AI时代生长,他们并没有退路。从功利角度看,未来人工智能将成为关键工具和基本资源,而当人工智能成为未来社会中像阳光和空气一样不可或缺的基础与背景,下一代将要从出生开始就培养和人工智能共同生存与成长的能力。

除了无法在本文展开的特殊问题,我对AI再造后的世界并不悲观。人类自身和社会内部的问题,很可能需要通过人工智能的全面介入来有效解决。适应AI是每个人利用AI的前提。成年人适应AI可以改善未来,孩子和AI做朋友会改变一生宿命。

二、什么是后真相时代的死循环

(一)后真相始于人性弱点

后真相是我们似乎耳熟又并不了解的词语,而后真相正是当今致命的慢性社会病。“后真相”从发生、传播到接受的每个过程和每个群体,都在帮助信息价值的取向从事实走向情绪。对后真相有一种表述是“事实不敌情绪”,类似的一句也说得挺好:“后真相时代,情绪先行”。

1. 信息生成

“后真相”(post-truth)在初期多指水门和海湾战争等事件中政府通过控制媒体误导社会观念的模式。后真相概念的重点在于信息会在持续传播的过程中逐渐发生变化。《牛津词典》在2016年评选“后真相”为年度单词时,定义已经变成“诉诸情感与个人信仰比陈述客观事实更能影响民意的种种状况”。维基百科对后真相的解释同样精准而值得参考:“后真相(Post-truth)是一个哲学和政治概念,指‘共同的客观真理标准的消失’……后真相话语通常反对科学方法和调查”。

可以看出,至少在2016年后,后真相并不完全指的是捏造事实,或者并不着重阐述事实被虚构,而是指信息传播的目标和重点从事实本身变成了利用情绪引导公众。所以,所谓后真相指的是,在事实发生后,在信息生成环节避开事实本身而刻意利用其中一个方面引导公众情绪。

2. 信息传播

后真相时代下,信息生成之后的传播过程同样是刻意的过程。传播的KPI是流量而不是事实,流量是绝大多数传播的首要目标。

流量的朋友不是思考,而是刺激。短视频的火爆就很典型,瀑布一样的短视频一次又一次激活头脑中的奖赏回路,杏仁体反复分泌让人快乐的多巴胺。对比各家短视频平台,除了微信视频号有熟人传播的前置设定可以稍多思考类分享,其他平台集中的内容都是宠物、时尚、跳舞、笑话。

流量当道的传播环节,事实自然让位情绪。传播的最有效途径是用不停的情绪奖励让用户在空白快乐或者无尽焦虑中不能自拔。思考和对事实的关注在大多数情况下是信息传播的阻碍。大数据基础上的算法分发使得信息渠道专注于根据每个用户的喜好定向提供信息,茧房效应进一步使每个人为自己所愿意看到的信息所包围,更加坚信自己看到的就是真相。

3. 信息接受

据说,尤瓦尔·赫拉利认为:“人类在信息不发达的时候被蒙蔽;而在信息爆炸的时代,人们只相信符合自己价值观的事实“。这段表述非常经典,可惜在尤瓦尔·赫拉利专门阐述后真相概念的《今日简史》中没有找到这个表述,暂时只能说具体出处不明。

在催生后真相的整个过程中,接受信息的读者或者公众实际上才是最核心的一环。也就是说,我们通常容易认为后真相是信息受众被误导的结果,但反过来也可以说,在大多数情况下,正是公众愿意放弃事实价值追求情绪价值而导致的结果。

相比思考的困难,情绪的满足总是简单、快乐和即时的。至少从经济学中没有需求就没有供给的原理出发,后真相信息的生成与传播恰好是为了迎合公众追求情绪满足的心态,人性自身的弱点是导致所谓后真相产生的原因。

后真相的传播全过程很可能是倒置的。首先,公众对于事实先行设立符合自己的立场,即(通常)最大程度提供情绪价值的观点,再去选择满足预期的信息作为”真相“;信息创造者和传播者为了影响更多人,刻意迎合公众情绪和偏好,于是公众意见在情绪满足中形成固化,“后真相”也扣好了死结。

(二)后真相是人类社会的封印

后真相始于情绪终于迷信,是现代社群中危害深远的负面现象。从主观角度上说,后真相一定程度上只是普遍的平庸或者狭隘。但是当这种平庸遍及,以致能够决定社会观念的时候,就可以隐隐看到阿伦特所说平庸之恶的影子。

后真相带来最坏的结果,是在看似无恶意的情况下,用情绪取代事实。

如果说后真相在发生之初尚不能归结为恶,而更合适归结为某种程度的愚蠢,那么正如朋霍费尔所说,愚蠢比恶危害更大:“对于善来说,愚蠢是比恶意更加危险的敌人。你可以抵抗恶意,你可以揭下它的面具,或者凭借力量来防止它。恶意总是包含着它自身毁灭的种子,因为它总是使人不舒服,假如不是更糟的话。然而,面对愚蠢,根本无法防卫。要反对愚蠢,抵抗和力量都无济于事,愚蠢根本不服从理性。”

三、AI是解除封印的力量

(一)AI可以成为人类伙伴

后真相源于人性自身弱点,人类自身难以独立摆脱后真相的巨大闭环。AI的出现是外部介入打破人类身处后真相诅咒的希望。

1. AI受计算而不受欲望驱动

后真相闭环中的每一个链条都受各自不同的欲望驱动,情绪驱动受众、操控驱动生成、流量驱动传播。对人工智能而言,要产生独立的欲望在技术上过于困难,以致迄今只存在科幻之中。

从外部打破后真相闭环有两个必要条件,外部因素具有对抗人类情绪的能力,以及无需利用人类的情绪。生成式技术的贡献,使得AI在预训练中通过对海量素材的深度学习,自发理解世界的结构和关系特点。并不是刻板和线性的总结。

所有AI都由计算驱动,不受情绪和利益干扰。计算并不等同于逻辑,但良好的算法可以使计算趋于并实现逻辑。以GPT-4为例,其展现的逻辑能力和绝大多数人相比都可谓出色。尽可能保持和优秀AI的对话,避免过多受人类媒体影响是摆脱后真相死循环的有效措施。

不论文字、短视频还是游戏,任何人类决定的内容都在引导受众的情绪,AI是唯一提供理性的空白。在人类假理性之名却疏远理性的后真相时代,人工智能帮助人类补足理性,这虽然有点讽刺,但又很现实。

2. AI能够习得正确价值观

包括生成式在内,当下所有AI技术都可能受人类价值观的影响,或者人类会直接控制大模型。典型如文心一言会贴心地回答Robin李不是资本家,但Pony马是。谷歌Gemini到2024年2月还把美国国父华盛顿画成黑人,单纯的技术缺陷显然不可能错到这个份上。如果联想到公开批评自家AI(Gemini前世Bard)是随机鹦鹉后离职,其观点也被技术界主流以及AI在现实中的优异表现而无情反驳的谷歌前员工Timnit Gebru正是AI伦理团队负责人,谷歌整个AI伦理体系的可靠性都值得怀疑。

(让Gemini饱受批评的黑华盛顿)

虽然大模型的操控者可以干预AI的价值观,但ChatGPT始终稳定的表现还是让人看到了希望,全球也都在自觉地加快AI立法和行业自律。生成式AI既然能够通过预训练自主学习现实世界的规律,理论上就有可能自行学习和生成道德标准。相反,如果坚持传统观点,认为AI价值观始终依赖人类灌输,就无法解决未来不同文化和不同宗教群体AI的价值观冲突。

在技术发展到相当高度后,AI的未来会转移到AI自己。

3. 避免人类盲从

解决AI幻觉贯穿了生成式技术迄今的全部发展过程。但是并没有必要对此悲观,因为最好的生成式如ChatGPT正在以肉眼可见的速度优化,而人类通常在与AI的关系中不难避免盲从,至少比避免对人类自身的盲从要容易得多。

人类之所以对盲从AI有一定先天免疫,是因为人在同类面前容易放弃警觉,而面对非生命的AI,本能会感到有距离。人和人的交流通常会掩饰目的,AI却直接告诉你自己并不是人类,言论仅供参考。

(二)走近逻辑是克服后真相的最好途径

后真相的产生是因为人本能地倾向将情绪置于事实判断之前,逻辑是克服情绪的最好途径。

AI受计算驱动,正确的算法自然使AI沿逻辑进行思考判断和输出。从学习问题到生活问题,AI都可以为人类提供逻辑的力量。

进一步思考,目前的教育是以传输知识为主,而在AI世代里,人类显然不可能和人工智能在知识量级上较量。孩子和AI沟通不只是为了习得知识,而且要从中汲取逻辑能力。反思、质疑、独立思考,这些作为批判性思维前提的能力都是逻辑能力的范围,掌握逻辑能力将为获得批判性思维提供可能。

一个以逻辑思维以及批判性思维为主的人可以理性地进行观察、评价和决策,而这些都是克服情绪依赖以及后真相死循环的关键。

四、与AI相伴成长

1. 把AI当伙伴而不是工具

不论AI有多少好处,对孩子来说,要和AI共同成长需要从工具依赖到建立伙伴关系的过程。

首先,和AI建立伙伴关系有可能性。人类媒体可能只把你视为流量,而AI并不认为利用你能带来什么好处。在AI眼里你并不是流量,AI还会把你的每个提问视为独一无二的需求。AI完全有可能成为孩子一对一的朋友和老师。

其次,和AI建立伙伴关系有必要性。如果只把AI视为工具,AI的全部意义就只是替代人类智能,这恰好会成为人类自身价值消亡的开始。

孩子把AI当朋友,并在和AI长期交流的过程中提升自己的认知、逻辑和思考能力,从而在陪伴中实现自我的提高。在和AI的伙伴关系当中,孩子可以实现很多重要能力的升级,比如学会提问。

据说,爱因斯坦说过,如果有一个小时来解决一个问题,应该花前五十五分钟确定正确的问题是什么,因为一旦知道正确的问题,解决问题可能只要五分钟(遗憾的是,这句话即使请教ChatGPT也没能找到出处)。在很多场合,这句话被解释为“提出问题往往比解决问题更重要”。

很多人认为,提问的重要性只是在解决复杂问题的挑战过程中有体现,实际上,在简单问题的常态沟通中也需要思维锻炼。例如向AI提问需要明确问题,尽可能避免抽象而要用具体的表述,因为抽象和概念化的问题只会引发同样抽象和概念化的回答。

举个例子,当我们询问ChatGPT,两条人生规划哪个更好的时候,需要先给出提问人的性格、目标、能力等具体的背景信息,只有在这样的情况下,AI提供的答案才是对你真正有帮助的。

2. 寻找自我价值

未来和AI比知识和计算估计是匪夷所思了。孩子在和AI建立伙伴关系的过程中,需要完成的一个关键目标是寻找自己可以和AI抗衡的能力所在,这是未来赖以生存的基点选择。

经过对这个问题挺长时间的思考,我觉得要在AI世代寻找到人类自己的价值,最好的方法可能是找到并追随自己的兴趣。当AI发达到让各种智慧和技能都不再稀缺,人类只有寻找到自己兴趣所在,才会激发好奇,有了好奇心才能最大化地激发创造力和想象力,这倒是连AI也不容易实现的高阶能力。传统为生存而锻炼的技能,包括刷题的内卷,在AI面前将毫无竞争力。

本文来自微信公众号:林华(ID:gh_4d992808ffdf),作者:林华

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年3月20日
下一篇 2024年3月20日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日