机器学习+量子计算,还能否讲出一个好故事?

研究人员对量子机器学习的态度处于两个极端,就职于加拿大量子计算公司Xanadu的南非物理学家Maria。

过去20年里,量子计算研究员开发了很多量子算法,这些算法理论上有望提升机器学习的效率。

对于机器学习来说,这么做的优势可能超过了以经典数据点的形式采集量子测量数据的系统,麻省理工物理学家、谷歌研究员Hsin-Yuan。

请叫它未来主义计算的“复仇者联盟”。将科技领域最火的两个词合起来——机器学习和量子计算机——“量子机器学习”便就此诞生。就和《复仇者联盟》漫画和电影一样,超级英雄的全明星阵容注定夺人眼球。但科技和虚构的故事一样,离不开好的情节。

谷歌正在研究量子计算机是否能促进机器学习技术。来源:Rocco Ceselin for Nature

如果量子计算机能大规模建造,它们就能比普通数字化电子产品更快地解决某些问题,因为它们能利用亚原子世界的独特性质。多年来,研究人员一直在思考这些问题是否也包括机器学习。机器学习这种人工智能(AI)技术使用计算机发现数据模式,学习规律,从而能在陌生场景中做出推断。

家喻户晓的AI系统ChatGPT就是利用机器学习推断文本中字词间的关系,从而生成“人类般”的对话。量子计算机的规模和算力也在迅速扩容,随着这两项技术的突飞猛进,两者结合会产生怎样的效果呢?

高歌猛进

许多科技公司,包括谷歌和IBM这种大公司以及加州Rigetti和马里兰州IonQ这类初创公司,都在为量子机器学习的潜力下注。学术界对此也热情高涨。

瑞士日内瓦近郊的欧洲粒子物理学实验室CERN,已经在用机器学习从大型强子对撞机产生的数据中寻找特定亚原子粒子产生的迹象。那里的科学家是正在实验量子机器学习技术的科学家之一。

CERN负责领导量子计算和机器学习研究组的物理学家Sofia Vallecorsa说:“我们想用量子计算机给经典机器学习模型提速或进行改进。”

这里的一个重要问题是,是否存在量子机器学习比经典版本更有优越性的具体场景。理论显示,对于特定的计算任务,如模拟分子或寻找大整数的质因数,量子计算机能加快运算速度,不然运算时间可能会比宇宙存在的时间更久。但研究人员仍然缺少充足证据证明机器学习也符合这种情况。其他人则认为,即使量子机器学习的速度不见得更快,但它可以发现经典计算机发现不了的模式。

研究人员对量子机器学习的态度处于两个极端,就职于加拿大量子计算公司Xanadu的南非物理学家Maria Schuld说,大家对这项技术很感兴趣,但似乎因为看不到短期前景而纷纷后撤。

一些研究人员转而关注在本质上属于量子的现象中应用量子机器学习算法。在目前提出的量子机器学习的所有可能应用中,这是量子优势最明显的领域,麻省理工物理学家Aram Harrow表示。

量子算法有用吗?

过去20年里,量子计算研究员开发了很多量子算法,这些算法理论上有望提升机器学习的效率。在2008年公布的一个重要结果中,Harrow和麻省理工的物理学家Seth Lloyd以及Avinatan Hassidim(现就职于以色列巴伊兰大学)发明了一种量子算法[1],这种算法求解很大的线性方程组的速度比经典计算机提升了指数级,这正是机器学习要解决的核心挑战之一。

但在某些方面,量子算法的承诺并未兑现。一个著名事件是:计算机科学家Ewin Tang在2018年提出的一种方法,打败了2016年设计的一个量子机器学习算法[2]。这个量子算法的最初设计目标是让Netflix这类网络购物公司和服务能基于用户既往选择做出相关推荐,并且其推荐速度较当时任何已知的经典算法有了指数级提速。

当时只有18岁的Tang还在得克萨斯大学奥斯汀分校读本科,她写了一个速度差不多的算法,但用普通计算机就能运行。量子推荐是算法在实际问题上显著提速的一个罕见特例,所以她的算法让实际的机器学习问题实现指数级量子提速的目标比以往更触不可及,Tang的导师、量子计算研究员Scott Aaronson说道。目前在加州大学伯克利分校的Tang表示,她仍然对任何声称机器学习能实现大幅量子提速的说法深表怀疑。

一个更大的问题是,经典数据和量子计算有时候并不兼容。大致而言,量子计算的经典应用主要有三步。第一步是量子计算机的初始化,也就是其单个存储单元,即量子比特(qubit)处于集体纠缠量子态。第二步是量子计算机执行一连串运算,也就是对经典比特进行逻辑运算的量子版本。第三步需要量子计算机进行读出,比如测量携带量子运算结果信息的单个量子比特的状态。这可以是计算机内的某个电子是顺时针自旋还是逆时针自旋。

吸管最细处

Harrow写的这类算法承诺在第二步实现提速,也就是量子运算。但在许多应用中,第一步和第三步有时候会非常慢,抵消这种提速[3]初始化的步骤要求在量子计算机上加载“经典”数据,并转换成量子态,这个过程常常很慢。而且由于量子物理学本身具有概率性,所以读出往往有随机的成分,这会让量子计算机需要多次重复这三个步骤,并对结果取平均值,才能得到最终答案。

华盛顿大学量子计算研究员Nathan Wiebe说,量子化数据经过处理进入最终量子态后,得到答案可能还要很久。Wiebe在去年10月的一个量子机器学习工作组上说:“我们只能从吸管最细的部分把信息吸出来。”

“不管你问哪个研究人员量子计算机的优势在哪里,回答基本上都是‘应该不是经典数据’,”Schuld说,“现在看来,没有什么理由让我们相信经典数据真的需要量子效应。”

Vallecorsa和其他人认为,速度不应该是评价量子算法的唯一标准。有迹象表明,机器学习驱动的量子AI系统可以学会识别经典计算机容易漏掉的数据模式。这可能是因为量子纠缠能让量子比特和数据点之间建立关联,德国电子同步加速器(DESY)粒子物理学实验室的物理学家Karl Jansen说,“我们希望能发现经典算法很难在数据中发现的关联。”

量子机器学习或能帮助解释CERN的粒子对撞。CERN是位于瑞士日内瓦近郊的欧洲粒子物理学实验室。来源:CERN/CMS Collaboration; Thomas McCauley, Lucas Taylor (CC BY 4.0)

但Aaronson并不认同。量子计算机遵循众所周知的物理学法则,因此它们的工作方式和量子算法的结果都可以用经典计算机预测——只要给足时间。Aaronson说:“所以唯一的问题在于,量子计算机是否能比完美的经典模拟更快。”

根本量子变革

另一种可能性是:对已经量子化的数据使用量子机器学习算法,完全绕开转换经典数据的障碍。

回顾量子物理学的发展,对量子现象的测量被定义为用存在于宏观、经典世界中的工具读取数值。但一种新出现的观点使用名为“量子传感”(quantum sensing)的新技术,这种技术使用纯量子工具测量某个系统的量子特性。将这些量子态直接加载到一台量子计算机的量子比特上,量子机器学习或许就能在不接入经典系统的情况下发现模式。

对于机器学习来说,这么做的优势可能超过了以经典数据点的形式采集量子测量数据的系统,麻省理工物理学家、谷歌研究员Hsin-Yuan Huang说,“我们的世界本质上符合量子力学。如果你想要一台会学习的量子计算机,它能变得更强大。”

Huang和他的合作者用谷歌的一台Sycamore量子计算机运行过一个原理验证实验[4]。他们用计算机的部分量子比特模拟一种抽象物质的行为,用计算机的另一部分从这些量子比特中采集信息,并用量子机器学习进行分析。研究团队发现,这种技术较经典测量和数据分析能有指数级提速。

是超导体吗?

“完全在量子世界中收集和分析数据,或能让物理学家解决经典测量只能间接回答的问题。”Huang说。其中一个问题是特定材料是否处于能成为超导体的特定量子态——超导体能零电阻传输电力。而经典实验要求物理学家间接证明超导性,比如通过测试这种材料对磁场的反应。

Jensen说,粒子物理学家还在尝试用量子传感处理未来粒子对撞机产生的数据,比如DESY让电子和光子对撞的LUXE实验,不过这种想法距离实现至少仍有十年时间。相距遥远的天文台也可以用量子传感器采集和传输数据,这需要用到未来“量子互联网”技术,将数据传输到中央实验室的量子计算机上处理。这么做希望能捕捉到清晰度无与伦比的影像。

如果这种量子传感的应用能成功,就能用量子机器学习综合这些实验的测量数据并分析最后得到的量子数据。

归根结底,量子计算机是否能为机器学习带来优势,要由实验决定,而不是看这种优越性是否有数学证据。Harrow说:“我们不能期望用做理论计算机科学的方式来证明一切。”

Aaronson说:“我绝对相信量子机器学习是值得研究的。” 无论最后是否能提速。Schuld也认同,“我们需要在没有提速要求的限制下做研究,至少暂时不要有这个要求。”

参考文献:

1.Harrow, A. W., Hassidim, A. & Lloyd, S. Phys. Rev. Lett. 103, 150502 (2009).

2.Tang, E. in Proc. 51st Annu. ACM SIGACT Symp. Theory Comput. (eds Charikar, M. & Cohen, E.) 217–228 (ACM, 2019).

3.Biamonte, J. et al. Nature 549, 195–202 (2017).

4.Huang, H.-Y. et al. Science 376, 1182–1186 (2022).

原文以The AI–quantum computing mash-up: will it revolutionize science?标题发表在2023年1月2日《自然》的新闻特写版块上 © nature doi:10.1038/d41586-023-04007-0

本文来自微信公众号:Nature Portfolio (ID:nature-portfolio),作者:Davide Castelvecchi

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年2月2日
Next 2024年2月2日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日