构建普适量子计算机的一个关键挑战就是如何在高量子比特体系中实现对每个量子比特的精确控制。虽然日前IBM宣称已可以对50个量子比特进行操控,但其具体操控能力并没有对外公布。目前,具有翔实科研数据支撑,且可实现每个量子比特单独操控的最大实验体系为浙江大学王浩华组的超导系统,包含10个量子比特【PRL 119, 180511 (2017)】。
近日,物理系鲁大为助理教授与加拿大滑铁卢大学的Raymond Laflamme研究组、桂湖(Guelph)大学的曾蓓研究组、清华大学的龙桂鲁研究组以及北京计算科学研究中心的李俊博士后合作,将量子体系自反馈优化算法成功应用到了12个量子比特的核磁共振系统上,实现了对12个量子比特的单独控制,并超越了经典优化算法给出的结果。该研究成果日前以“Enhancing quantum control by bootstrapping a quantum processor of 12 qubits” 为题发表在npj Quantum Information 3, 45 (2017)。鲁大为助理教授为本文的第一作者和通讯作者,南方科技大学为第一贡献单位。
为实现对高量子比特系统的精确操控,量子计算中控制优化算法的设计一直是一个重要的方向。在传统的梯度优化算法中,研究人员一般事先用经典计算机来模拟量子系统的行为,并通过梯度下降算法搜索出一个可以实现目标任务的“路径”,即控制脉冲,再将搜索出的脉冲作用于量子系统上。这一算法在低量子比特体系中取得了巨大的成功,但其有两大致命缺点:1)用“经典”模拟“量子”本身并不是有效的行为,当量子比特数目达到12个左右时,一般的笔记本电脑便很难模拟该尺度的量子行为了;2)用“经典”模拟“量子”时,很难考虑到量子系统本身的噪声,因为人们很难对高量子比特系统的噪声具体形式作出提前“预知”(即测量)。
一个可能的解决办法是,能否通过量子处理器本身“自力更生”式地来反馈优化施加于自己的控制脉冲?北京计算中心的孙昌璞院士、李俊博士后和中国科学技术大学的彭新华教授等合作提出了【PRL 118, 150503 (2017)】一种可以实现上述任务的量子自反馈优化算法(MQFC),并在7个量子比特上进行了验证。由于7个量子比特的尺度有限,他们没有观测到该算法比传统经典优化的结果更好。后来,鲁大为等将此算法在12个量子比特上实现,并成功将该体系的控制精度提高了10%。反馈优化过程如图1所示:
在随机生成初始脉冲后,该脉冲被施加于包含12量子比特的核磁共振处理器上。如果该脉冲表现不好,量子处理器就会计算出一个梯度方向和数值,并将此信息反馈回经典计算机来修订该脉冲,再把修订后的脉冲进行测试。通过不断迭代,最终量子处理器会“自发”地找到最适合自己的控制脉冲。和传统的经典优化不同的是,经典模拟中最耗时的两个部分,即对脉冲表现的判断和梯度大小的计算都是在量子处理器中快速完成的。
图1. 量子自反馈算法实现过程示意图
除了时间效率方面,该算法的另一个优势,即对量子系统中噪声的自发克服也得到了实验证实。如图2所示,研究人员首先利用传统的经典优化算法(GRAPE)尝试对该12量子比特系统进行控制。可以看出,经典计算机的模拟结果(蓝色实线)随着迭代的进行看上去非常不错,但实验结果(蓝色虚线)只能说差强人意(此处为差强人意的正确用法)。这是人们对真实量子体系中的噪声认识并不全面、无法在经典模拟中考虑导致的。反观量子自反馈优化算法(MQFC),虽然模拟结果(红色实线)看上去并不是很好,但实验结果(红色虚线)反而不错,甚至高出传统优化算法10%。这是因为MQFC算法是基于量子处理器自身的优化,它已经“自然而然”地考虑并克服了自身的噪声。
该算法亦可移植到其他体系,例如固态的超导电路或者金刚石色心系统中。这为未来各个体系如何精确实现高量子比特控制提供了一种重要思路,同时,这种对未知噪声的处理思路也与量子机器学习有着紧密的联系,并被MIT的Seth Lloyd教授等在今年Nature发表的“Quantum Machine Learning”综述论文中引用 。
图2. 自反馈算法在12量子比特系统上的实验结果图