质疑谷歌量子优越性 阿里团队:万年问题可20天解决

文/黄珊

2019年见证了许多历史性时刻,但这些历史性时刻仍需经受考验例如谷歌宣布实现量子优越性(Quantum Supremacy)。

当时,谷歌在其刊登于Nature的论文中表示,已经开发出了一款名为 Sycamore 的54量子比特数的量子芯片,可以在短短的200秒内解决一个特定问题,而地球上顶尖的超级计算机将花费1万年才能完成相同的任务。

按照2012年加州理工学院量子理论物理学大牛John Preskill提出的 “量子优越性” 的定义,量子计算设备可以超越经典计算设备,解决后者无法解决的计算任务。这个概念曾在2018年10月被证明理论上行得通。谷歌的实验结果则显示,量子计算机在解决随机采样任务上超越了经典计算机,量子优越性由此达成。

不过,阿里量子计算团队近日在Arxiv上刊登的文章 “Classical Simulation of Quantum Supremacy Circuits” 却显示,谷歌用以证明量子优越性的计算任务,经典计算机所需的计算时间其实用不到1万年。

图丨此次论文(来源:Arxiv)

在这项新发布的文章中,阿里团队的思路也与IBM此前对于谷歌量子优越性宣称的诸多质疑类似。

在量子计算领域,IBM 是可以与谷歌分庭抗礼的另一股力量。

IBM 研究人员提出的一个质疑之处在于,在 Nature 论文中,谷歌量子处理器用200秒时间完成了世界上最好的超级计算机(恰好是 IBM 的 Summit,top500榜首)需要1万年才能完成的计算,这并不合理,Summit 可以在2.5天内完成计算。除此之外,谷歌离真正的量子计算机还有很长的路要走,因为它执行的计算任务没有已知用途,不足以证明其通用性,而且如何实现可持续的容错运算依然是个巨大挑战,谷歌在论文中也承认了这一点。

换句话说,质疑者认为,谷歌声称的 “实现量子优越性” 的言论是具有误导性的。

图|谷歌宣布实现量子优越性的论文(来源:谷歌)

而在阿里团队的这项研究中,研究人员则是通过一种优化方法,经典计算机在20天的时间内就完成了计算。

从 IBM 、阿里的给出的数据来看,20天、2.5天的耗时和200秒自然仍有差别,但20天、2.5天和1万年确实也不是一个级别的概念。

一直以来,量子计算都被寄予了 “在计算速度上比经典计算要快指数级倍” 的厚望,而运行随机量子线路采样(random quantum circuit sampling)是目前测试量子计算的性能的一个主流手段(其他手段包括光学玻色采样问题、IQP 线路),尽管这种运算可能并没有任何实际用途。

随机量子线路采样,正是谷歌宣称量子优越性所解决的“特定问题”。

一般而言,经典计算处理这类问题所需的时间会随量子线路(一般由一个名为 cycle“周期”的量表示,周期越高,量子回路越复杂)的规模增大而呈指数级增长,而用这类问题探究量子计算是否真较经典计算具有不可超越的 “量子” 的一个设计要点,在于要设法使量子处理器的规模和结果都达到经典计算不可能以类似的计算时间和精度输出的水平。

图 | 谷歌 Sycamore 量子芯片(来源:谷歌)

阿里量子团队共同开发出了一款基于张量网络的模拟算法,并在阿里云上对该算法进行了测试,与Sumimit相较的集群方式相比,显示其能仅在20天内就解决谷歌测试所用的、1万年版本的随机量子线路采样问题(53量子比特,20个周期)。

而对于在此前谷歌研究所用的另一个测试运算(53量子比特,14个周期),相比谷歌宣称的“经典计算需用约1.1年才能算完”,此次研究所提出的新算法仅用265秒就能完成计算,而谷歌的 Sycamore 则用了约两倍长的这个时间才解决了这个问题。

研究人员也在论文中,将谷歌此前测试量子计算用的运算问题称为“意外地能容易的被拆分为并行运算的问题”。

简单来说,此次研究将量子随机采样问题看作是一个具有 “2D 平面上仅相邻节点有互相约束” 的规律张量网络,使影响经典计算耗时的因素变为了张量网络的收缩途径,而团队则将运算拆分成无数个可独立被并行运算的 “次级运算”,然后再针对对效率构成影响的因素为算法进行优化,实现了“量子处理器每增加一量子比特并不会使其效率相对经典算法呈指数级增长” 的情况,并使经典计算的性能达到了谷歌此前所给出的性能值的20万倍。

此次研究所展示的成果,倒不像此前谷歌所宣称的那般“经典计算实力与量子计算相差甚远”。谷歌 CEO Sundar Pichai 曾强调那次的研究成果对谷歌来说具有里程碑式的意义,并将其与莱特兄弟发明飞机时的首次12秒成功试飞相比。

还有另外一个需要关注的能力——“抗噪”。这是验证量子计算是否较经典计算具有量子优越性的衡量标准之一,即在一个非理想的,具有噪声的系统中完成随机抽样运算。不过由于技术问题,此次的研究仅测试了新算法在理想环境下的运算能力,而未能对算法在噪声环境下的表现进行模拟。

图 |  谷歌 CEO Sundar Pichai(来源:麻省理工科技评论)

整体来看,这样的成果将为量子计算研究所需实现的计算效率拉高门槛。理论上而言,量子计算相较经典计算能力更加不可估量,只是一个技术从概念到实现再到不断成熟的过程中,其性能和表现之类的参数肯定是不断提升的。未来研究人员宣称在某个问题上实现量子优越性,恐怕还需要付出更多的心力。

事实上,量子计算和经典计算之间已有多次喧嚣,尽管量子计算作为前沿技术 “捷报” 连连、颇受瞩目,但越来越多迹象显示,现阶段,该领域每一次的进步都未能完全实现对量子优越性的证明,更不是对经典计算的否定。

反而有一点愈发清晰:对比量子计算与经典计算之间的不同,不少新的工作促进了经典计算的探索,以及对其进一步的算法优化,也为量子计算不断提新的课题。

正如 IBM 研究部主管 Dario Gil 曾在采访中对我们表示的:“量子计算机永远不会有远胜于经典计算机的绝对‘霸权’地位,两者各有千秋,各司其职,对于许多问题,经典计算机将仍然是使用的最佳工具。”

(来源:麻省理工科技评论)

注:此次论文作者多来自阿里量子实验室和阿里云智能,包括阿里量子实验室的负责人、前密歇根大学教授施尧耘博士。在量子计算研究上,阿里是不可忽视的新进者,因为其是为数不多以硬件为核心进行全栈量子计算研发的团队:2017年,阿里巴巴以实现量子计算的潜能为目标组建量子实验室。2018年初,实验室研制的量子电路模拟器 “太章” 在全球率先成功模拟了81比特40层作为基准的谷歌随机量子电路。2019年,阿里达摩院院长张建锋宣布量子实验室完成了第一个可控的量子比特的研发工作。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注