“打假”Sora,谷歌Gemini 1.5 Pro第一波评测出炉

您目前设备暂不支持播放

谷歌应该是最有实力改变大模型格局、给。

1.。将语言翻译成只有不到 2000 人使用的语言。

Gemini。

您目前设备暂不支持播放

二、背后的两大技术“杀招”

Gemini。

Gemini。

这意味着。

Gemini。“我们正在重新审视很多想法,考虑将 AlphaGo 的能力建立在这些大型模型之上,我认为内省和规划能力将有助于解决幻觉等问题。”

可以推测,谷歌正在试图搭建一个系统,来引导模型更有逻辑地思考,而并非一味追寻。

OpenAI 与谷歌同一天发布的两款 AI 模型正在“互相伤害”。

先是 OpenAI 的 “世界模拟器” Sora 完全抢走了谷歌最新一代多模态大模型 Gemini 1.5 Pro 的风头,让谷歌这出大招反响平平。谷歌也被戏称为“AI界的汪峰”。

很快,谷歌 Gemini 1.5 Pro 就来给 Sora “拆台”了。

一名谷歌董事将一条 Sora 生成的视频发给 Gemini 1.5 Pro,让其点评一下。Gemini 1.5 Pro 犀利指出了视频中不合逻辑的地方:

这段视频是在日本一条雪街上拍摄的,樱花盛开。有一些不一致之处表明这段视频可能是由人工智能生成的。

首先,雪花纷纷扬扬地飘落,但樱花依然盛开。樱花通常在春天盛开,当天气温暖而没有雪。

其次,雪以非常均匀的方式下落,这并不是雪在现实生活中通常下落的方式。

第三,视频中的人们没有穿任何冬季衣物,尽管下着大雪。

总的来说,这个视频在视觉上很吸引人,但不一致之处表明这不是一个真实场景。

谷歌应该是最有实力改变大模型格局、给 OpenAI 带来压力的玩家。这次与 Sora 互相拆台的 Gemini 1.5 Pro,实力究竟如何?

一、第一波评测出炉,Gemini 1.5 Pro 表现如何?

谷歌 Gemini 1.5 Pro 是一个多模态模型,可以为不同模态执行高度复杂的理解和推理任务,同时可以在更长的代码块中执行更相关的问题解决任务。

不过,Gemini 1.5 Pro 目前尚未对公众开放,仅有少数用户加入内测,AI 工具库网站 Therundown.ai 创始人 Rowan Cheung 便是其中之一。

2月19日,Rowan Cheung 在 X 上发布了 Gemini 1.5 Pro 的六项能力测评。

1. 分析和理解长视频。

Rowan Cheung 上传了前一晚 NBA 扣篮大赛的整个视频,并询问哪个扣篮得分最高。

Gemini 1.5 凭借其出色的长上下文视频理解能力,能够从视频中找到得分最高的完美50分扣篮及其细节!


 

2. 理解和比较《星际穿越》《星际探索》的完整电影剧本。

Gemini 1.5 能够理解、比较并对比这两部电影的完整剧本,帮助 Rowan Cheung 决定应该看哪部电影。


 

3. 将语言翻译成只有不到 2000 人使用的语言。

Gemini 1.5 能够在推理时遵循完整的语言手册,将英语翻译成 Saterlandic (德国的一种语言,只有不到 2000 人使用)


4. 观看、理解和区分 OpenAI Sora 视频中的内容是否由 AI 生成。

Gemini 1.5 突出显示了著名的 Sora 猫视频,并强调了为什么它可能是由AI生成的关键因素。

Rowan Cheung 直呼“对它的回答深度感到惊讶”。


5. 在一篇长论文中找到、理解并解释一个小图表。

Gemini 1.5 能够从 DeepMind 的 Gemini 1.5 Pro 论文中提取出“表8”,并解释了该表的含义。


6. 理解整部《星际穿越》电影剧本,并突出关键时刻。

Gemini 1.5 能够找出《星际穿越》剧本中的 3 句最鼓舞人心的引语。

二、背后的两大技术“杀招”

Gemini 1.5 Pro 有两大“杀招”——最强的 MoE 大模型,最高可支持 10000K token 超长上下文。

1. 高效的 MoE 架构

Gemini 1.5 Pro 建立在谷歌关于 Transformer 和 MoE(Mixture of Experts,混合专家)架构的领先研究之上。传统的 Transformer 作为一个大型神经网络运作,而 MoE 模型被划分为较小的“专家”神经网络。

MoE 是一种混合模型,由多个子模型(即专家)组成,每个子模型都是一个局部模型,专门处理输入空间的一个子集。MoE 的核心思想是使用一个门控网络来决定每个数据应该被哪个模型去训练,从而减轻不同类型样本之间的干扰。

基于 MoE 架构,与 Gemini 1.0 Ultra 相比,尽管 Gemini 1.5 Pro 的训练计算需求大大减少,但服务效率更高,在超过半数的评测指标上(16/31)表现更出色,特别是在文本处理(10/13)和多项视觉处理任务(6/13)上。

Gemini 1.5 Pro与Gemini 1.0系列比较‍

MoE 架构已经在大模型圈火了一段时间,比如被称为“欧洲版 OpenAI”的法国大模型公司 Mistral AI ,其 8x7B 模型就采用了 MoE 架构。微软紧跟着发布了全新版本的Phi-2 小模型;猎豹移动董事长 & CEO 傅盛近期对“甲子光年”表示,公司接下来也会考虑在模型中引入 MoE 架构。

“老大哥”谷歌在 MoE 路线上也早有布局,已经有 Sparsely-Gated MoE、GShard-Transformer、Switch-Transformer、M4 等成果。

谷歌最新的模型架构创新使 Gemini 1.5 Pro 能够更快地学习复杂任务并保持质量,同时在训练和服务上更加高效。

2. 支持超长的上下文窗口

去年下半年,各家大模型公司便开始卷上下文窗口的长度。

AI 模型的“上下文窗口”由 Token 组成,这些 Token 是用于处理信息的基本构建块,Token 可以是单词、图像、视频、音频或代码的部分或子部分。模型的上下文窗口越大,它在给定提示中能够吸收和处理的信息就越多,进而能使模型输出更加一致、相关性强且有用的内容。

通过一系列机器学习创新,谷歌增加了 Gemini 1.5 Pro 的上下文窗口容量,并实现在生产中运行高达 100 万个Token,远超 32k 的 Gemini 1.0、128k 的 GPT-4 Turbo、200k 的 Claude 2.1。

这意味着 Gemini 1.5 Pro 可以一次性处理大量信息——包括1小时的视频、11小时的音频、超过 30000 行代码的代码库或超过 700000 个单词。

谷歌还透露,内部研究已经成功测试了高达 1000 万个 Token 。

在给定的提示中,Gemini 1.5 Pro 可以无缝分析、分类和总结大量内容。例如,当给出阿波罗 11 号登月任务的 402 页记录时,它可以推理关于对话、事件和文档中的细节。

在现实世界数据中,这种上下文长度让 Gemini 1.5 Pro 能够轻松处理几乎一天的音频记录(约 22 小时)、超过《战争与和平》1440 页(或 587287 词)的书籍十倍的内容、Flax 整个代码库( 41070 行代码),或者以每秒一帧的速度播放三小时视频。

更进一步,由于该模型天生支持多模态,并能够将不同模态的数据混合在同一个输入序列中,它能同时处理音频、视觉、文本和代码输入。

在被称为“大海捞针”的 NIAH 实验评估中,实验人员故意将包含特定事实或陈述的小文本片段放置在长文本块中,在长达 100 万个 Token 的数据块中,Gemini 1.5 Pro 能够 99% 的概率找到嵌入的文本。

Gemini 1.5 Pro在所有模态(即文本、视频和音频)中实现了接近完美的“针”召回率(>99.7%),即使在“干草堆”中达到100万个标记。它甚至在文本模态中扩展到1000万个标记(大约700万字)、音频模态中达到200万个标记(长达22小时)、视频模态中达到280万个标记(长达3小时)时仍保持这种召回性能。x轴代表上下文窗口,y轴代表在给定上下文长度中放置的“针”的深度百分比。结果用颜色编码表示:绿色表示成功检索,红色表示失败。

三、谷歌不走 OpenAI 的老路

在 Sora 的技术文档里,OpenAI 并没有透露模型的技术细节,只是表达了一个核心理念——Scale。

OpenAI 将 Scale 列为企业核心价值观之一:“我们相信规模——在我们的模型、系统、自身、过程以及抱负中——具有魔力。当有疑问时,就扩大规模。”

基于该理念,OpenAI 在 2020 年总结出了模型训练的秘诀——Scaling Law。根据 Scaling Law,模型性能会在大算力、大参数、大数据的基础上像摩尔定律一样持续提升,不仅适用于语言模型,也适用于多模态模型。

不过,目前来看,谷歌似乎并不吃 Scaling Law 这一套。

在最新访谈中,哈萨比斯表示:“你必须推动现有技术,看看它们能走多远,但仅仅扩大现有技术,你很难获得新的能力。如规划、工具使用或代理行为,这些不会神奇地发生。”

他进一步透露,自从 AlphaGo 时代以来,谷歌已经在 Agent、强化学习和规划的路上走了很长时间,这是谷歌真正的强项。“我们正在重新审视很多想法,考虑将 AlphaGo 的能力建立在这些大型模型之上,我认为内省和规划能力将有助于解决幻觉等问题。”

可以推测,谷歌正在试图搭建一个系统,来引导模型更有逻辑地思考,而并非一味追寻 OpenAI 的暴力美学路径。

毕竟,从科研角度来说,暴力美学的“黑盒”不够透明,且很难复制;从实际应用来说,暴力美学的成果也并不安全。

哈萨比斯则一直倡导建立模拟沙箱,在将 Agent 系统放在网上之前对其进行测试,也呼吁行业应该开始真正考虑 Agent 系统的出现。在他看来,Agent 系统将是一个完全不同的系统。

对于“模拟沙箱”的方法,国内大模型初创公司面壁智能在“小钢炮” MiniCPM 模型中也有应用。发布 MiniCPM 之前,面壁智能做了上千次的模型沙盒实验,探索出了最优的配置,所有尺寸的模型可以通过最优的超参数的配置,保证训练任意大小的模型取得最好的效果。

可以说,模拟沙盒的方法,或许能将大模型的训练过程从“炼丹”转化为一种“实验科学”。

无论是单纯的语言模型还是多模态,围绕 LLM 展开的技术与商业竞争都还处在早期,一切定论或许都为时尚早。OpenAI 伟大,但不应被神化。

Diffusion Transformer架构论文的作者之一的谢赛宁认为,在复杂 AI 系统的比拼中,人才第一、数据第二、算力第三,而谷歌是目前为止最能和 OpenAI 掰一掰手腕的老玩家,期待谷歌的后续表现。

本文来自微信公众号:甲子光年 (ID:jazzyear),作者:刘杨楠,编辑:赵健

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年2月21日
下一篇 2024年2月21日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日