大模型的“幻觉”

在寻找智能飞轮:从数据枯竭到多模态再到自生成里面,我们提到过除了AlphaGo还没人转起来智能飞轮,又因为飞轮一旦转起来必然会产生特定领域的神灵,所以关心这个人工智能应用的人都关心到底在哪里可能再出下图这样的智能飞轮:

这在上面的象限图上也能找到回答的思路:越偏元宇宙这个方向,就越容易些。

揠苗助长的、盯得越紧的,潜在效果越差

小结

从这个角度看,确实幻觉就是智能,至少是智能飞轮的原动力。

大模型是有幻觉的,其表现呈现多样性,比如与事实冲突,其成因也很多,比如缺相关知识或者对齐错误,不清楚的点就更多。但和应用相关的最为关键的点还不是这些,而是:看起来幻觉是个短期搞不定的事,即使是OpenAI。这就要求在落地的时候把它当前条件和不变量来思考,一旦把它做前条件和不变量,那就会发现像对人类一样,幻觉也并不全是坏处。

顺势的和逆势的

我们把幻觉对产品有帮助还是对产品有害作为纵轴,再加上出问题的责任作横轴,形成一个简单的坐标系,然后再把各种人工智能体放在这个坐标系上面,大概是下面这样:

也许对不同人工智能体所处的位置会有争议,但几个极值应该问题不大。

对于元宇宙而言本来就是高级游戏,那人物行为的出格反倒是会激发游戏叙事的多样性,成为丰富世界内容的一部分养料;对于问诊就很麻烦,如果在既有医疗知识框架外发挥,然后病人病情变严重了,那就不仅有害,后果还很严重。现实空间和问诊类似的其实更多,包括客服、税务咨询等。

在寻找智能飞轮:从数据枯竭到多模态再到自生成里面,我们提到过除了AlphaGo还没人转起来智能飞轮,又因为飞轮一旦转起来必然会产生特定领域的神灵,所以关心这个人工智能应用的人都关心到底在哪里可能再出下图这样的智能飞轮:

这在上面的象限图上也能找到回答的思路:越偏元宇宙这个方向,就越容易些。幻觉可以低责任成本地制造新数据,新数据融入场景,然后反过来就可以作为燃料驱动飞轮。

象限中的位置即定位

在象限中的位置对做AI产品落地是非常关键的。

这个位置在相当程度上就决定了你的运营成本乃至于跑的快慢。并且它面对的约束非常刚性,不可改变。

一般认知里,我们都把产品看成一组特性,用能干什么不能干什么,用功能性能参数等表述,高级一点就用审美偏好衍生的就是品牌。但其实不全面,更深一层产品也是一套权责利系统的汇聚点。这在C端产品上体现得没有B端明显。

在过去很少被提及,因为经济体系里只有一种智能体:人。整个经济体系都按照人、法人来确定的权责利。但现在这套体系其实是碰到了新的挑战,人工智能体的崛起让这种权责体系出现了裂痕,并且运转滞涩。

最简单的例子是过去经常说的自动驾驶,用户、厂家、自动驾驶服务提供商之间会产生新的复杂权责利再平衡。(原来事故的责任基本是用户的,谁开谁负责,用了自动驾驶后就不行)

这会非常麻烦,因为人工智能并非权责利的主体,但似乎又得承担对应的责任。这就导致潜意识的每家公司都尝试拿技术来对冲,让某些坏的事好像可以不发生,但其实这和堂吉诃德战风车差不多,基本不可能。

而和用户、甲方权责利的再平衡,其实是会像指挥棒一样决定公司有限资源分配的导向性的。(事实上,会形成特定位置的一般性社会成本)

投入产出不好,还不得不干的情形,岂不尴尬?

这种尴尬的核心原因就是用技术没办法完全对冲掉的权责。

对冲不掉的权责

为什么说技术不可能完全对冲掉权责呢?

这固然是因为技术总是有个成熟过程,但很可能更关键的原因是数字和智能让问题显性化的同时,权责被放大了。

面对可以清楚表示的数字结果时每个客户都会希望无限制地解决问题,而这种限度在过去是被抑制了的。

我们可以拿客服举个例子:

当雇佣几千上百的人做客服的时候,服务自身必然有良率问题。但这个时候大家基本能接受一定的错误,每个人都知道人会出错,再加上客服人员还不好找,大家对这个良率就保持了一定的容忍度。假如客服人员服务不好丢失了一单,那最多辞退对应的客服人员或者扣钱。很难向客服追讨造成的损失。

当把客服换成人工智能体后,事情还是那个事情,但权责关系就默默发生了一些变化。

即使人工智能体的良率超过了过往的人工,从甲方的角度看,也还会有足够的动力向提供人工智能体服务的公司追责。而后面的技术公司就得想尽办法让人工智能体不出错。

这就是用技术对冲权责。

本质是用技术解决近乎无限的领域问题。越到后来越变成捣糨糊,因为搞不定。人工智能这个行业从智能音箱的唤醒开始就不停地重复这个故事。

而实际情况是,即使是古老的搜索引擎如果要求不出错比如某类内容出现一次就灭掉,那谷歌、百度这样的公司都不知道死多少次了。

但这种权责体系的容忍度其实有非常多的成因,有历史的文化的商业现实的,十分刚性,不太可能改变。而如果它不能改变,那就并不怎么适合纯粹的人工智能体。能想到的折中方法就是把人再塞回去,即使这个人什么不干,只做做样子,那也是他在履行工作职责,人工智能体服务于他,他对所有产出负责。

这样一来,选择和定位就很关键,因为权责系统本身就是成本、方向和客户满意度(“想都是问题,干才是答案”是错误的,雷军说也不行干就完了不对的老话题)。在幻觉本就是智能的一部分的前提下,真跑到权责系统非常沉重的领域,那其实是事倍功半的。

基于这个视角,我们还可以再拔高一点,谈一点新技术的应用模型。

新技术的应用模型

在探讨应用模型的时候我们先回到人类本身。

人类文明的核心子系统:政治经济文化其实全是先虚后实,实又促虚这么反复倒腾来的。回到300年前,哪有什么三权分立、自由民主、社会主义,当然也不会有汽车、高铁、自行车。

这些在想象和某种逻辑合理性的基础上,加上另外一波人找到了想象到物理定律、商业游戏之间的联系,然后想象就会照进现实。火车、电、汽车、手机等差不多都是这么来到了世界上。

然后,我们再截取1912年2月12日,从溥仪退位这个时间点回溯,看看想象的作用。

今天对我们影响至深的产品很多其实都是1912年以前发明的,产品上包括蒸汽机、汽车、电、青霉素、电话、摄影机、电池等,人物则包括诺贝尔、爱迪生、特斯拉、福特等。这些产品出世后大致是不顺的,比如蒸汽的汽车就经常爆炸、爱迪生曾经主力攻击交流电危险容易电死人,但相对宽容的环境让这些产品都存续了下来。

想象下如果都是慈禧等认为火车会干扰祖宗风水的观点,那就不可能会有这种多样化。大清朝用文字狱等对思想的钳制其实是有成效的,一定程度上达成了自身希望的稳定性,但稳定性很好的同时整个系统效能很差,1912年溥仪退位可以看成是这种效能差的结果。

这给我们什么启示呢?

新技术在一般性社会成本低的地儿开始更合适。权责系统越宽松,试错成本越低,越有助于新技术驱动的不成熟产品转起来。

整体一般性社会成本的事很复杂,这里不展开。(就是怎么避免在火车出现的时候,坚信它会破坏风水。)

对于创新主体的个人,显然要规避复杂权责系统。

因为技术不成熟如果还要用它来对冲复杂权责的风险,那肯定吃力不讨好。

回到人工智能更具体一点会是什么样呢?

环境本身的宽松与否在这个时间点看着也许不关键,复杂权责系统也许还更容易形成现金流。但越往后可能会更关键。因为潜在智能飞轮会起作用,所以这就真的是1.01的99次方和0.99的99次方的差别。

凯文·凯利在《科技想要什么里》表达了这样一个观点,哪怕科技带来的好处只多于坏处一点点,那随着它本身的强大,影响的结果也是非常显著的。

对人工智能体也是一样,这一点点差异到后面可能就是智能飞轮转不转的起来的差异。

简单说,属于人工智能自身的应用模型是:要找幻觉有益,权责对冲没那么复杂的领域,然后由内而外的成长,而不是揠苗助长。

揠苗助长的、盯得越紧的,潜在效果越差

小结

从这个角度看,确实幻觉就是智能,至少是智能飞轮的原动力。很多时候恰恰是幻觉给了我们一种智能的感觉,彻底去除幻觉还保持智能,就真的是得达成一种超级单一体(克里人的终极智慧),这是很好的理想。但我觉得如果假设人工智能不可能建成完备的世界模型,那去除这种幻觉就是不可能的,所以与其指望用技术解决这一问题,就不如根据技术的进展修正应用模型。

本文来自微信公众号:琢磨事(ID:zuomoshi),作者:老李话一三

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2023年9月20日
Next 2023年9月21日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日