清华思客 – 段路明 吴宇恺:量子计算机:现状与进展

清华思客 - 段路明 吴宇恺:量子计算机:现状与进展

新知 • 新思 • 新文化

量子计算机现状进展

编者按:什么是量子计算?什么是量子计算机?量子计算将对未来计算产生怎样的影响?本期我们有幸邀请到了量子领域的专家段路明老师和吴宇恺老师谈谈量子计算机的发展,一起来看看吧~

概念突破:量子计算机的原理与发展

量子计算机是一种基于量子力学原理进行运算的新型计算机。

在现有的计算机(称为经典计算机)中,信息以二进制的比特的形式进行存储和操作,每一个比特可以处于0或1的状态。类似地,在量子计算机中,基本的信息存储单元(称为量子比特)也具有0和1两种状态。但是不同于经典计算机的比特,量子比特可以同时处于0和1的状态,这称为一个叠加态。两个量子比特可以同时处于00、01、10、11这四个状态的叠加态;依此类推,n个量子比特可以同时处于2n个状态的叠加态。

对于这样n个量子比特的系统进行一系列量子逻辑门操作,就相当于同时对所有2n种状态进行操作,这被称为量子并行,解释了量子计算机能产生指数加速的原因。

当然,由于量子力学原理对于量子态测量等的限制,量子计算机并不是在所有问题上都能简单地获得加速。我们仍然需要巧妙地设计量子算法,在不同的叠加态之间进行量子干涉,从而实现指数或多项式级别的量子加速。著名的例子有Shor的质因数分解和离散对数算法、Grover的量子搜索算法等。通过加速各类复杂的计算问题,未来的大规模通用量子计算机将有望应用于信息安全、新材料模拟、药物研发、工程优化、人工智能等领域。

量子计算领域的首要研究任务是实现大规模的通用量子计算机。目前用于实现量子计算机的物理系统主要有离子阱、超导电路、冷原子、光子、拓扑材料、固体自旋、半导体量子点这7种技术路线,其中尤以离子阱和超导电路这两种路线在量子比特数和量子逻辑门的精确度等关键指标上占据领先地位。

在实验中,包括量子态制备、测量、单量子比特逻辑门、双量子比特逻辑门等在内的基本量子操作都不可避免地具有误差,误差将随着量子比特数量增加和量子线路的延长而积累,最终导致错误的计算结果。所幸,理论研究表明,只要各种基本量子操作的误差都低于某一阈值(称为容错量子计算的阈值),我们就可以通过量子纠错方法,用越来越多的物理量子比特来编码一个逻辑量子比特,实现越来越高的精度。

目前在离子阱和超导电路这两种领先的物理系统中,都已对几十个量子比特实现了误差低于容错量子计算阈值的基本量子操作。因此,未来重要的研究方向,将是如何在保持乃至提高现有精度指标的前提下,扩展量子比特的数量,将目前的几十个量子比特的系统扩展到成千上万乃至上百万,从而实现大规模通用量子计算,解决实际问题。

清华使命:离子阱量子计算机的研发

在清华大学交叉信息研究院,我们的团队布局了离子阱与超导的量子计算实验平台,重点攻关离子阱量子计算方向,领导中国离子阱量子计算的“2030-重大专项”并处于国际前沿。

离子阱量子计算机采用约束在真空中的离子作为量子比特。目前研究中常用的两种离子阱装置是图1所示的刀片阱和图2所示的芯片阱,二者通过多块刀片状的电极、或是芯片表面由微纳加工制成的电极,施加直流和交变电场,形成对离子的稳定的囚禁。在获得稳定囚禁的离子阵列后,我们可以利用离子的两个稳定的能级作为量子比特0和1的状态,利用激光或微波来控制能级之间的跃迁实现量子逻辑门,并通过激光实现量子比特状态的初始化和测量。这其中涉及到离子囚禁、低温、磁场、激光、微波、电子学控制等多项技术。作为最早用于量子计算研究的系统之一,总体来说,相比于其他物理系统,离子阱系统具有保真度高、退相干时间长、连通性好、编程扩展性强等优点。

图1 清华实验室刀片阱实验装置

图2 清华实验室芯片阱实验装置(激光束为示意图)

当前,国际上已经能在离子阱量子计算平台实现误差低于0.01%的量子比特状态初始化与测量、在两个离子的系统中误差低于0.01%的单量子比特逻辑门和误差0.1%的双量子比特逻辑门,以及在13个离子的系统中误差0.02%的单量子比特逻辑门和误差0.7%-1.5%的双量子比特逻辑门。

考虑到离子阱量子计算的上述优势和巨大潜力,清华大学交叉信息研究院从2011年就开始搭建相关实验平台,是国内最早开展离子阱量子计算研究的机构。近期,我们实验研究团队取得多项进展:

  • 在低温环境下实现了超过200个离子量子比特的稳定囚禁(图3),代表目前的最高记录。

图3 清华实验室拍摄的203个镱离子排列成的稳定一维阵列的荧光图像

  • 首次在实验上实现了拉比-哈伯德模型的量子模拟(图4),通过16个离子的自旋与声子模式实现了257(约14亿亿)的有效希尔伯特空间维度。这是首个超越经典计算机模拟能力的多离子量子模拟实验,相关成果发表于《物理评论快报》并入选为编辑推荐论文。

图4 多离子量子模拟实现拉比-哈伯德模型(Phys. Rev. Lett. 128, 160504)

  • 演示了多离子协同冷却(图5),通过对优化选择的少量离子进行激光冷却,首次实现对长离子链的高效协同冷却,获得了接近全局激光冷却的极限温度。这一成果对于保持大规模离子阵列的稳定性、实现未来的大规模量子计算和量子模拟,具有重要意义。

图5 多离子协同冷却(Phys. Rev. Lett. 127, 143201)

未来发展:离子阱量子计算的产学研结合

未来大规模通用量子计算机的应用,将离不开产学研的协同发展。当前,欧美各国都在积极开展超导和离子阱量子计算机的产业化。在离子阱领域,尤以高科技跨国公司Honeywell和美国首家上市的量子计算初创公司IonQ为代表。

针对这一发展趋势,交叉信息研究院的研究团队也在积极推进离子量子计算方向的成果转化和产业化发展,着眼于大规模离子阱量子计算机的研发及其产业化应用。

在此前的离子阱量子计算研究中,通常采用一维离子构型。据估计,该构型只能稳定囚禁至多约一、二百离子。为了进一步扩展离子量子比特数,目前国际上主要有两种主流的方案。一是基于离子输运的方案:将离子阱划分为多个空间区域,在每个区域内囚禁少量离子作为一个个单独的量子计算模块、分别进行小规模量子计算,再通过外界电场控制部分离子在各个计算模块之间移动,实现多个计算模块之间的量子纠缠。这种方案的难点在于离子输运速度较慢,且需要设计复杂的离子阱结构并保持离子输运过程中的量子相干性。二是模块化量子网络方案:采用多个独立的离子阱作为一个个量子计算模块,再在每个模块中将部分离子量子比特转化成光子,通过光纤收集、传输,进行不同计算模块之间的连接。由于光子更适合远距离传播,量子网络方案允许各个计算模块之间距离更远,且由于不需要移动离子,离子阱的设计也比输运方案更为简单,但这一方案的缺点是光子转化、测量成功率低,导致模块间连接的效率低、速度慢。

在充分考虑上述方案的优缺点后,我们的团队在推进离子阱量子计算的研发与产业化发展时,创新性地提出采用基于高维离子量子比特阵列的离子量子计算机架构,可在维持高速、高保真度的量子逻辑门操作的同时,极大提升单系统的有效量子比特数量并保持其连通性。研究团队已为该技术方案申请了相关发明专利。

量子计算机的产学研结合和产业化发展目前还处在早期阶段,其成熟、广泛应用还需要大量人才与资源的持续投入。作为一种革命性的技术,量子计算机已成为大国科技竞争中的一个高地,未来将持续引领多学科思想、多门类技术的交叉、融合与发展。

作者简介

段路明

段路明

,清华大学基础科学讲席教授、姚期智讲座教授,曾任美国密歇根大学费米讲席教授。从事量子计算机和量子网络方向的研究,曾获饶毓泰基础光学奖、霍英东青年研究奖、美国斯隆研究奖、海外华人物理学会杰出研究奖、国家自然科学二等奖等奖项,2009年当选美国物理学会会士。在《现代物理评论》、《自然》、《科学》等国际著名学术期刊发表论文200余篇,被引用33,000多次。

吴宇恺

吴宇恺,清华大学交叉信息研究院助理教授,博士生导师。从事量子计算、量子信息方向的研究。发表SCI论文30余篇(其中《自然》、《科学》子刊6篇、《物理评论快报》7篇),被引用700余次。

供稿 | 段路明 吴宇恺

约稿 | 惠珺

编辑 | 惠珺

排版 | 惠珺

本文经段路明老师、吴宇恺老师授权发布,

如需转载请在留言区说明

1

2

3

郑重声明:本文内容及图片均整理自互联网,不代表本站立场,版权归原作者所有,如有侵权请联系管理员(admin#wlmqw.com)删除。
(0)
用户投稿
上一篇 2022年6月25日
下一篇 2022年6月25日

相关推荐

联系我们

联系邮箱:admin#wlmqw.com
工作时间:周一至周五,10:30-18:30,节假日休息