本文来自微信公众号:果壳 (ID:Guokr42),作者:沈知涵,编辑:卧虫,原文标题:《兴高采烈下载了满屏AI助手,我尝鲜了一下就没再打开》
大模型开始“普世化”了,不必理解技术,在不知不觉中就能用得不亦乐乎。
一个不会编程的小学生,在手机上随便扒拉两下,就能创建一个外教“智能体”,陪自己练口语,比越练越烂的那些“英语角”可强多了——这样的例子并不少见。
最近,“智能助手”类产品成了手机应用商店中的新宠。这类鲜明的针对普通用户的AI应用,通常都是用各自的大模型作为“底座”支持,将散落的AI需求整合并封装到一个“聊天界面”之下,基于自然语言处理文本、图像的需求。
你能看到这类产品有,文心一言(百度)、通义(阿里)、Kimi(月之暗面)、海螺AI(MiniMax)、豆包(字节),还有刚刚发布就颇受关注的“元宝”(腾讯)等。一下子,用户恨不得给手机里装满了“助手”。
通过手机app使用AI大模型,比在电脑网页上方便多了,也更符合我们已经养成的操作习惯。经过了最初好奇尝鲜驱动的使用,这类app有没有可能变得像我们打开微信、美团、滴滴那样频繁呢?
本质上,用户的“线上”核心需求没有变,高效获取信息,提升效率,情感表达,社交娱乐等。那,“智能助手们”行么?
神仙打架or菜鸡互啄?
打眼几个助手类产品的第一印象:产品同质化。AI搜索、文档总结和问答、文案写作、图片生成等,能做的事情大差不差。但基于模型能力和对价值判断的不同,让用户在使用起来,体验还是各有不同。
AI的“工作流程”,首先是信息搜集,接着对信息进行结构化处理,结合所理解的用户输入,进行内容生产(也可以称之为创作)。
面对确定的、已有的资料,大模型们都能给出不错的答案。但需要信息检索时,原本具备搜索能力的大模型厂商,在联网、时新类搜索上一般表现更好。
比如腾讯元宝接入微信搜一搜,搜狗搜索引擎。当你问它“现在适合买黄金吗?”,它会总结出投行和证券公司最近对于黄金价格走势的判断。
决定回答质量的另一个因素是“信息源质量”。当前AI搜索大致工作原理,用户以自然语言的查询先被重构,输入进实时索引中搜索信源,再交给语言模型阅读,最后将阅读到的信息结构化一篇有条理的回答,同时附上相关参考链接,为的是克服“幻觉”问题——尽管,那些教AI说话的“老师”(信源)也总在胡说八道。
不得不承认,很多高质量的中文内容处于封闭的生态下。最典型的例子,是微信公众号——新近上线的“元宝”,就是得益于做了对微信公众号检索的打通,让AI回答的质量得到了巨大提升,甚至可以被当作微信生态内容的一个新入口。
一个“聊天框”,用自然语言提问解决了“不会搜索”的难题,而对于可能出现的各种“答非所问”,这类“智能助理”产品也提供了相应解决方案。
如果你在“百小应”中问,引擎盖打不开了怎么办?它不会直接泛泛而谈。而是先问什么品牌型号,哪一年的车。聚焦后再生成进一步的回答。通过多轮对话明确问题,搜索少量(不只调用通用搜索,也需要垂直搜索能力)的信息源,做出精准的回答。
一些AI产品中的“灵感提示”、“追问”也都是为了引导用户问出更“对”的问题。
回到讨论的核心。助手类产品的意义是什么?答案或是,提升用户解决问题的效率。
还是以这些AI app通用的主界面,AI搜索对话框为例,其背后都对应着问题的拆解和相对应模型功能的调用:翻译搜索结果、转成语音输出、生成结构化大纲等等,根据用户的特定需求,产品可以做到分别调用翻译模型,tts模型,对专业问题(对信息来源有要求)做对应论文文献搜索。
这种多功能组合,是今天智能助理app中集成大量智能体的原因之一。甚至,面对更多长尾需求,产品允许用户自建智能体。无论是通过自然语言,简单地构建一个智能体;
还是开放给专业开发者(至少是有编程思维的人),以自建workflow(工作流)的方式构建智能体。
普通用户对这类应用的日常需求已经呈现出一个清晰的主线:如何满足娱乐和如何提升效率。
AI产品总体渗透率不足1%,各家并没有拉开差距。功能上,产品处于同质化的状态。深究原因,是技术能力相对也同质化——回想一下,这是不是和当年各种同质化的app创业很像?
一个好的智能助手,必须能帮我怼老板
PC端与移动端产品的用户体验,各有优势。处理逻辑复杂,操作繁多的工作流(对于用AI类产品,尤其当涉及到上传多文件,对内容生产结果二创等),PC端用起来更方便。
那么移动端的优势是什么?至少一个智能助理,听起来应该像一个可随身携带的“百事通”。
GPT-4o发布中的一个惊喜是,语音交互竟丝滑流畅到这种地步了——延时缩短到不可察觉,AI助手能听懂语气词,增加了情感表达。当我们感受到“对方”能自主抬高,压低声音,就会不自觉将其看待成人,与之交互就会越来越频繁。
如今不少厂商将“语音交互入口”设置为默认交互界面。对语音交互体验做优化,包括但不限于,做基于大模型的ASR(自动语音识别),超自然的TTS(语音合成)音色。
不久前,Arc Search(一款浏览器产品)推出了一个名为“Call Arc”的功能,当检测到用户执行打电话手势时(举起手机,贴近耳旁),便能直接到用户与AI搜索聊天——一个移动端AI产品更为“激进”的尝试。
GPT-4o(还有Gemini Live)本质是多模态的进步。他们都在重新定义大模型产品的人机交互标准。所谓多模态,是能像人一样看,听,说,有触觉,调动摄像头,麦克风等手机上各种传感器(移动端天然优势)。行业的一个普遍共识是,接下来提高底座语言模型的能力,将多模态统一融合。
效率另外的提升,来自AI与原有产品生态形成联动。大模型厂商已经在做尝试。
比如钉钉(联合饿了么)群内,用自然语言“20杯拿铁,少冰,加浓”点单、拼单,无需离开群聊便可一键付款。
如何使用好手机上的“个性化”信息,也是这类app效率提升和使用体验优化的关键——理论上,如果AI app能引用地图导航app和机票旅行app的购买偏好数据,就能为用户安排出行。类似利用好本地的实时的信息,可以创造很多高价值的场景。
“我就期待能有这样的搜索,跟微信联动起来,当老板呲牙咧嘴地逼问我为啥他交代的事情我没做时,我就当着他面让AI立刻查查,他到底说没说!”——我有一个朋友这么说到。
的确,没有比这个价值更高的场景了。