商务咨询

13020133833

技术支持

18621663782

您的反馈是我们前行的动力

量子计算机向遏制错误迈出关键一步

文章发表于2026-01-14 09:37:34,归属【科技前沿】分类,已有21人阅读

科技前沿

2023年2月,谷歌研究人员宣布,一项旨在攻克量子计算机固有误差难题的技术方案,已向实用化目标更进一步。与传统计算机中只能被设定为 0 或 1 的比特不同,量子计算机采用的量子比特(qubit) 可同时处于 0 和 1 两种状态。但量子比特的特性极不稳定,为保护单个量子比特存储的信息,一种常用策略是将其分散编码到多个量子比特中。此次谷歌团队证实,随着承载信息的物理量子比特数量不断增加,系统的误差率会随之降低。这种 “规模化扩展” 技术,是谷歌实现核心目标的关键一步 —— 计划通过将 1 个 “逻辑量子比特” 的信息编码到 1000 个物理量子比特上,实现信息的长期稳定存储。

“这是一次意义重大的概念验证演示。” 柏林自由大学理论物理学家约施卡・罗菲评价道,他并未参与该实验。不过他也指出,尽管实现了规模化扩展,谷歌所构建的逻辑量子比特,其稳定性仍未超越底层的物理量子比特。

一台成熟的量子计算机,有望完成传统计算机难以企及的特定任务,例如破解当前主流的互联网加密体系。量子比特的载体种类丰富,离子、光子、原子等都可作为制备材料。谷歌所采用的量子比特,是由超导金属制成的微型电路:电路的低能态代表 0,高能态代表 1。通过微波调控,可使电路处于单一能态,或是同时处于两种能态。但外界干扰(如噪声)极易破坏这种叠加态,其存续时间通常仅有 20 微秒,远远不足以支撑复杂量子算法的运行。

为增强量子比特的稳定性,谷歌工程师借鉴了 1940 年初代计算机的纠错思路。早期传统计算机同样受噪声困扰,比特信息可能会从 0 被翻转成 1,反之亦然。当时的解决办法是将 1 个比特的信息复制到另外 2 个比特上 —— 噪声同时翻转 3 个比特的概率会大幅降低;即便有 1 个比特发生翻转,计算机也可通过对比 3 个比特的状态,定位出异常比特。

但量子力学定律限制了这种方法在量子计算机中的直接应用:我们既无法将 1 个量子比特的状态精准复制到其他量子比特上,对处于叠加态的量子比特进行测量,也会使其瞬间 “坍缩” 为 0 或 1 中的某一种状态。量子纠错技术因此需要更精妙的变通方案:它不会直接测量量子比特的信息,同时摒弃简单复制的思路,转而利用量子纠缠效应,扩展原始量子比特的状态。

举个例子:假设有 1 个处于 0 和 1 叠加态的量子比特,通过量子纠缠,可将另外 2 个量子比特纳入系统,形成一个特殊的量子叠加态 ——3 个量子比特同时为 0,且同时为 1(即 “000 和 111” 叠加态)。这个新状态所承载的信息与原始量子比特完全一致,由此便构成了 1 个逻辑量子比特。此时,若 3 个数据量子比特中的第 2 个发生状态翻转,整个系统的状态会变为 “010 和 101” 叠加态。为检测这类翻转,研究人员会在第 1 与第 2、第 2 与第 3 个数据量子比特之间,分别引入额外的辅助量子比特并形成纠缠。通过测量这些辅助量子比特的状态,就能定位出原始 3 个数据量子比特中发生翻转的那个,而整个过程中无需对数据量子比特进行任何测量。理论上,研究人员可据此将翻转的量子比特恢复至初始状态。

此次,谷歌量子人工智能团队验证了一个核心结论:当逻辑量子比特的信息分散到更多物理量子比特上时,纠错方案的性能会显著提升。研究团队采用一块 72 量子比特芯片,通过两种方式对 1 个逻辑量子比特进行编码:一种是基于 17 量子比特的网格结构(包含 9 个数据量子比特和 8 个辅助量子比特),另一种是基于 49 量子比特的网格结构(包含 25 个数据量子比特和 24 个辅助量子比特)。研究人员对两种网格结构分别开展了 25 轮测量实验,全程追踪量子比特的翻转情况。谷歌量子硬件部门主管、物理学家朱利安・凯利表示,实验中并未对翻转的量子比特进行纠错,仅需记录其状态变化,即可验证方案的有效性。

经过 25 轮测量后,研究人员直接对数据量子比特进行测量,以此检验辅助量子比特是否精准记录了所有翻转事件。如果出现未被记录的翻转,就意味着系统丢失了逻辑量子比特的信息。团队在《自然》期刊中公布实验数据:在多次重复实验中,采用较小网格结构时,逻辑量子比特每轮的信息丢失概率为 3.028%;采用较大网格结构时,这一概率降至 2.914%。显然,随着物理量子比特数量的增加,系统误差率出现了小幅下降。

这样的数值或许难以令人眼前一亮 —— 因为单个物理量子比特的误差率反而更低。但凯利强调,相比逻辑量子比特当前的稳定性,规模化扩展的可行性更为关键。“实现高效扩展,才是这项技术的核心突破口。” 不过要达成谷歌的终极目标 —— 将 1 个逻辑量子比特编码到 1000 个物理量子比特上,并将误差率降至 0.0001%,现有扩展方案的效率还需提升 20 倍。

加州大学戴维斯分校数学家格雷格・库珀伯格指出,在量子纠错领域,谷歌的实验并非孤例。量子计算公司 Quantinuum 利用离子量子比特开展实验,所构建的逻辑量子比特稳定性已超越底层物理量子比特;耶鲁大学的物理学家则通过混合超导量子比特与光子,也实现了这一目标。但库珀伯格同时提到,离子量子比特系统的规模化扩展难度较大,而耶鲁大学的实验方案与谷歌的研究属于不同技术路线,二者不具备直接可比性。

尽管如此,库珀伯格仍给予高度评价:“这些研究成果表明,物理学家有望利用性能并不完美的物理量子比特,构建出性能远超前者的逻辑量子比特。在我看来,这正是当前量子计算领域最重要的里程碑。”