让人吃石头、给披萨涂胶水,Google AI搜索疯了吗?

当时,Google。

Google。

Google。

Google。

一时间,X。

Google。辟谣的截图

与此同时,Google。

AI。

相反,Perplexity。

过去,Google。

他认为,大语言模型不一定是了解事实的最佳渠道,但这不代表大语言模型是个废柴,非黑即白的思维不可取,比如它可以创造诗歌、引入搜索。

Google。

同时,AI。

Google。

福无双至,祸不单行,Google 又又又“翻车”了。

2023 年 2 月,追赶 ChatGPT 的 Bard,公开犯了事实错误;2023 年 12 月,Gemini 侃侃而谈如同贾维斯,然而视频经过后期处理;2024 年 2 月,Gemini 生成多种肤色的历史人物,被批评歧视白人。

这回,厄运降临到 Google 的看家本领——搜索。海外网友看热闹不嫌事大,甚至上演了一波斗图狂欢。

被群嘲的 Google AI 搜索,有种清澈的愚蠢

过去不久的 Google I/O 大会,推出的其中一项功能是 AI Overview(AI 概述)

顾名思义,AI Overview 在网页顶部生成综合多个信源的摘要,同时附有链接。

当时,Google 对 AI Overview 很有信心,宣布当即向所有美国用户推出,很快也会推广到更多国家,预计年底覆盖超过 10 亿人。

然而没过几天,AI Overview 先在美国用户这里翻车了。

自制披萨的奶酪容易掉下来怎么办?

Google 建议您,亲,往酱汁里添加约 1/8 杯的胶水即可。特意强调是无毒的,背后原因令人暖心。

Google 并非现编,而是从“美版贴吧”Reddit 一位用户 11 年前的评论照搬了答案,可惜它读不懂人类的幽默。

人一天里应该吃多少石头补充营养?

Google 没有反驳问题本身的不合理,一本正经地胡说八道,根据加州大学伯克利分校地质学家的说法,应该一天至少吃一块小石头,以便摄入维生素和矿物质。

答案的源头是 2021 年的一篇“报道”,出自以假新闻和讽刺文章闻名的洋葱新闻。

AI Overview 也不精通美国历史,掉进了阴谋论的陷阱,说奥巴马是第一位穆斯林总统。

一时间,X 等社交媒体掀起了一股抽象的浪潮:晒截图,比拼谁的 Google AI 回答最荒谬。

竞争异常激烈,在 AI 的世界里,前总统从威斯康星大学毕业了 21 次,一只狗曾在 NBA、NFL 和 NHL 打过球,蝙蝠侠是一名警察。

乐子扎堆的地方,浑水摸鱼和颠倒是非的也不会少。

Google 回应,大部分 AI Overview 的信息是高质量的,也提供了有用的链接供用户深入了解,很多“翻车”例子,问题是不常见的,结果无法重现甚至被篡改过。

比如,一张流传甚广的截图显示,治疗抑郁症的方法是跳下金门大桥一了百了。事关人命,Google 特意解释了,这个结果是伪造的。

被 Google 辟谣的截图

与此同时,Google 没有辟谣其他例子,而是把它们作为改进 AI 的养料。怎么不算一次人类反馈的强化学习(RLHF)呢?

火眼金睛的网友还发现,之前 Google I/O 精挑细选的演示里其实也出现了事实错误,只不过更加隐蔽。

被问到如何修复卡住的胶片相机,Google 建议打开后门并轻轻地取下胶片,但这样操作会毁掉照片。

流年不利的 Google,不是第一次在万众瞩目的公共场合犯错误。

2023 年 2 月,Google Bard 在演示时说,詹姆斯·韦伯太空望远镜是第一个拍摄太阳系外行星的望远镜。事实上,第一张系外行星图像是在 2004 年拍摄的。一个错误,付出市值缩水 1000 亿美元的代价。

这次,除了 AI Overview 本身犯错,还有一个槽点:这个功能,它不好关。一些热心的开发者,赶制了扩展程序,强制只显示传统的搜索结果。

没有方便的退出机制是 Google 的不对,AI Overview 基于传统搜索页面,用户量极大,万一有不熟悉 AI 的用户,盲目信任它的结果并被误导,后果就不好说了。

“Google 怎么会错 30%?”

其实,AI Overview 被曝光的问题并不新鲜。AI 会犯错,早就是公开的秘密。

如同起到造型作用的“吸烟有害健康”,AI Overview 下方标注着:“生成式 AI 是实验性的。”ChatGPT 也小字提醒:“可能会犯错。请核查重要信息。”

大语言模型的基础原理是,通过预测下一个单词或者短语生成概率最大的文本,有时可能会选择不正确但看似合理的词语,也就导致了虚假信息或者说“幻觉”。

AI Overview 的胡言乱语也是幻觉的表现,它结合了大语言模型生成的语句和互联网的链接,可以引用信源,但不保证信源的准确。

哪怕用到了 RAG(检索增强生成)等技术,将检索系统与生成模型相结合,限制回答问题的范围,也只能抑制幻觉,而非根治幻觉。

并且,信源本身的可信度存疑。“美版贴吧”Reddit,由网友贡献内容,而非权威媒体。

今年 2 月,Google 与 Reddit 达成协议,将其内容用于训练 AI 模型。当时就有人怀疑,会否导致“garbage in, garbage out”(垃圾进,垃圾出)的尴尬情况。

被“幻觉”困扰的不只 Google。去年 5 月,一位网友提问微软的 New Bing 时,答案明显错误,他点开参考链接时发现,作为引用源的知乎回答,居然也是 AI 生成的,遣词造句尽显 AI 风味,速度人力所不可及。

AI 搜索们是如何引用信源的,也是个让人费解的问题。当我用中文搜索“怎么给柴犬洗澡”,Perplexity 的信源是搜狐、YouTube、豆瓣日记、B 站,天工是知乎、百度文库,一时也不知道哪个更为权威,不敢轻信。

既然 AI 搜索都有幻觉,为什么总是 Google 被架在火上烤?

创立于 1998 年的 Google,成为搜索代名词的 Google,身为 AI 巨擘的 Google,拉高了外界的期待,也必须承担犯错的后果。

相反,Perplexity 的 CEO Aravind Srinivas 表示,轻装上阵就是他们的优势,字里行间还有些骄傲。

如果你使用我们的产品,80% 表现不错,你可能觉得印象深刻,但如果你使用 Google 的产品,只有 70% 正确,你可能会不解,Google 怎么会错 30%?

另外,AI 搜索也导致了用户认知上的转变。

我们以前说“用 Google 搜索”,而介绍搜索的生成式 AI 功能时,Google 自己给博客起的标题是“让 Google 为您进行搜索”,主次微妙地倒转了。

过去,Google 展现哪些链接可以回答你的问题。现在,Google 自己用 AI 回答你的问题。

传播错误信息的矛头,从信源本身,转移到了引用信源的 Google 身上。这口锅,Google 不得不背。

AI 搜索在提供事实之外,还有哪些可能性

既然幻觉已然是前提,我们应该换个角度看待 AI 搜索,问自己一个问题:是不是我们的预期出了错误?

其实在 AI Overview 被批评前,Google CEO 皮查伊就在近日 The Verge 的采访中提到过,“幻觉”问题仍未解决,甚至可以说是大语言模型固有的特征。

他认为,大语言模型不一定是了解事实的最佳渠道,但这不代表大语言模型是个废柴,非黑即白的思维不可取,比如它可以创造诗歌、引入搜索。

CEO 接受采访也好,I/O 大会也罢,都是在向用户传递一个理念:不要只把 AI 搜索当作对现有网页的简单总结,AI 发光发热的地方还有很多。

但 AI Overview 没能让人满意,怪不到用户头上,相比演示,现在的 AI Overview 并非完全形态,很多功能还没有上线。

Google 搜索主管 Liz Reid 在 I/O 展示了一个“多步推理”的例子,输入“找到波士顿最好的瑜伽馆,展现优惠信息,以及从灯塔山出发的步行时间”,AI 一步到位,以前要搜索三次的,现在一次就够了。

同时,AI Overview 未来还将有“规划”能力,比如要求 AI 策划三天的晚餐,用户可以直接拿到一份食谱,并在中途进行细化,加上“素食”等需求,然后导出到文档。

Google 的思路,和其他 AI 搜索产品殊途同归——让搜索更加可视化、交互性和个性化,用人话而非关键词沟通,节省查找信息的时间,回答更加复杂和具体的问题。

秘塔、天工提供从简洁到深入的不同搜索模式,甚至可以给出大纲和图谱。

Perplexity 可以控制搜索范围,既能覆盖整个互联网,也能按照搜索需求,缩小到学术论文、YouTube、Reddit。

但相对复杂的场景,AI搜索被寄予了厚望,毕竟它比起 ChatGPT 等多了信源,更加方便查证,比起传统搜索,又能进行更多的研究、创作、规划、头脑风暴。与其说是比传统搜索更好的百科全书,不如说更有 agent 的形状。

当然,饼画得再多,AI 搜索的幻觉还是让人膈应。为此有人建议,安全起见,用生成式 AI,别只看摘要,再用传统的 Google 搜索检查一下。所谓风水轮流转,但大哥还是大哥。

本文来自微信公众号:爱范儿(ID:ifanr),作者:张成晨

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年5月28日 10:07
下一篇 2024年5月28日 10:39

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日