文章发表于2025-07-04 09:22:27,归属【科技前沿】分类,已有16人阅读
近年来,量子计算领域发展迅速,技术进步和大规模投资的相关消息经常上热搜。
联合国已将 2025 年定为国际量子科学与技术年。
这其中利害关系重大 —— 拥有量子计算机意味着将获得相较于当今的计算机强大得多的数据处理能力。它们不会取代你的普通计算机,但这种强大的计算能力将推动医学、化学、材料科学等领域的发展。
因此,量子计算迅速成为一场全球竞赛也就不足为奇了,世界各地的私营企业和政府都在竞相建造世界上第一台全面的量子计算机。要实现这一目标,我们首先需要有稳定且可扩展的量子处理器,即芯片。
什么是量子芯片?
日常使用的计算机,比如你的笔记本电脑,都是经典计算机。它们以二进制数或比特的形式存储和处理信息。单个比特可以表示 0 或 1。
相比之下,量子芯片的基本单位是量子比特(qubit)。一个量子芯片由许多量子比特组成。这些量子比特通常是亚原子粒子,如电子或光子,通过专门设计的电场和磁场(称为控制信号)进行控制和操纵。
与比特不同,量子比特可以处于 0、1 或两者的组合状态,这也被称为 “叠加态”。这一独特属性使量子处理器能够以指数级速度比即使是最强大的经典计算机更快地存储和处理极其庞大的数据集。
制造量子比特的方法有多种,可以使用超导器件、半导体、光子学(光)或其他方法。每种方法都有其优缺点。
像 IBM、谷歌和 QueRa 等公司都制定了到 2030 年大幅扩大量子处理器规模的路线图。
使用半导体的行业参与者有英特尔,以及澳大利亚的 Diraq 和 SQC 等公司。主要的光子量子计算机开发商包括 PsiQuantum 和 Xanadu。
量子比特:质量与数量
实际上,量子芯片所拥有的量子比特数量不如量子比特的质量重要。
一个由数千个低质量量子比特组成的量子芯片将无法执行任何有用的计算任务。
那么,什么才是高质量的量子比特呢?
量子比特对不必要的干扰非常敏感,这些干扰也被称为误差或噪声。这种噪声可能来自许多方面,包括制造过程中的缺陷、控制信号问题、温度变化,甚至仅仅是与量子比特环境的相互作用。
容易产生误差会降低量子比特的可靠性,这被称为保真度。为了使量子芯片能够稳定运行足够长的时间以执行复杂的计算任务,它需要高保真度的量子比特。
当研究人员比较不同量子芯片的性能时,量子比特保真度是他们使用的关键参数之一。
我们如何纠正误差呢?
幸运的是,我们不必制造完美的量子比特。
在过去的 30 年里,研究人员设计出了理论技术,利用许多不完美或低保真度的量子比特来编码一个抽象的 “逻辑量子比特”。逻辑量子比特可免受误差影响,因此具有非常高的保真度。一个实用的量子处理器将基于许多逻辑量子比特。
几乎所有主要的量子芯片开发商现在都在将这些理论付诸实践,将他们的重点从量子比特转向逻辑量子比特。
2024 年,许多量子计算研究人员和公司在量子纠错方面取得了重大进展,包括谷歌、QueRa、IBM 和澳大利亚联邦科学与工业研究组织(CSIRO)。
目前已经有包含 100 多个量子比特的量子芯片。世界各地的许多研究人员正在使用它们来评估当前一代量子计算机的性能,以及研究如何在下一代中使其变得更好。
目前,开发人员只制造出了单个逻辑量子比特。可能还需要几年时间才能弄清楚如何将几个逻辑量子比特组合到一个量子芯片中,使其能够协同工作并解决复杂的现实问题。
量子计算机有什么用途?
一个功能完备的量子处理器将能够解决极其复杂的问题。这可能会在许多研究、技术和经济领域产生革命性的影响。
量子计算机可以帮助我们发现新药物,并通过在临床试验数据或遗传学中找到当前计算机因处理能力不足而无法发现的新关联,来推动医学研究。
它们还可以大大提高各种使用人工智能算法的系统的安全性,比如银行、自动驾驶汽车等。
为了实现这一切,我们首先需要达到一个被称为 “量子优越性” 的里程碑 —— 即量子处理器能够解决一个经典计算机需要花费极长不合理时间才能完成的问题。
去年年底,谷歌的量子芯片 Willow 终于在一个人为设计的任务上展示了量子优越性,这是一个计算问题,由于其独特的工作方式,该问题对经典超级计算机来说很难,但对量子处理器来说却很容易。
虽然它没有解决一个实际有用的现实问题,但这仍然是一项了不起的成就,也是朝着正确方向迈出的重要一步,这背后是多年的研究和开发。毕竟,要跑起来,首先得学会走路。
2025 年及以后的前景如何?
在未来几年里,量子芯片将继续扩大规模。重要的是,下一代量子处理器将以逻辑量子比特为基础,能够处理越来越多有用的任务。
虽然量子硬件(即处理器)一直在快速发展,但我们也不能忽视量子软件和算法领域的大量研究和开发工作。
研究人员一直在普通计算机上使用量子模拟来开发和测试各种量子算法。这将使量子计算在量子硬件成熟时能够准备好并投入实际应用。
建造一台全面的量子计算机是一项艰巨的任务。它需要在许多方面同时取得进展,比如增加芯片上量子比特的数量、提高量子比特的保真度、更好地进行纠错,以及在量子软件、量子算法和量子计算的其他几个子领域等方面取得进展。
经过多年卓越的基础工作,我们可以期待 2025 年在上述所有方面都能带来新的突破。