商务咨询

13020133833

技术支持

18621663782

您的反馈是我们前行的动力

量子人工智能新的飞跃

文章发表于2025-08-27 10:06:19,归属【科技前沿】分类,已有14人阅读

科技前沿

无论你是否察觉,人工智能已渗透到我们的日常工作流程与常规任务中。例如,Gemini(谷歌旗下 AI 模型)在各类谷歌产品中的集成,会在后台默默为你提供建议;你或许还会更直接地使用聊天机器人与图像生成工具,如 OpenAI 的 ChatGPT 和 DALL-E。而在不久的将来,更先进的虚拟助手也将逐步落地。

若说人工智能本身已足够 “未来感”,那么即将到来的全新突破 ——量子人工智能(quantum AI),则更令人瞩目。它将人工智能与尚未完全成熟、仍以实验为主的非常规量子计算相融合,形成一种超高速、高效率的技术。

“我的同事有时会问,为什么我要离开蓬勃发展的人工智能领域,转而专注于量子计算,” 谷歌量子人工智能实验室创始人哈特穆特・内文(Hartmut Neven)在去年 12 月介绍 Willow 量子芯片的博文中写道,“我的回答是:这两项技术都将成为我们这个时代最具变革性的技术,但先进的人工智能若能借助量子计算的力量,必将获得显著提升。”

下文将简要梳理量子人工智能的基础知识,帮助你更好地理解这一技术。

人工智能与生成式人工智能的区别

人工智能是一种模拟人类决策与问题解决能力的技术。这类软件能够识别模式、从数据中学习,甚至能 “理解” 语言 —— 通过聊天机器人与人类互动、推荐电影,或识别照片中的人脸与物体。

生成式人工智能(Gen AI)作为人工智能的一个重要分支,生成式人工智能的能力远超简单的数据分析或预测。生成式 AI 模型会基于训练数据创造全新内容,如文本、图像与音频。常见案例包括 ChatGPT、DALL-E、Midjourney、Gemini、Claude 以及 Adobe Firefly 等。

这些(生成式 AI)工具由经海量数据训练的大型语言模型(LLM)驱动,能够生成逼真的输出内容。但在幕后,即便是最先进的 AI,仍受限于经典计算—— 也就是我们日常使用的 Windows、Mac 电脑,以及数据中心服务器乃至超级计算机所依赖的计算模式。然而,二进制运算(经典计算的核心)的能力终究存在上限。

而这,正是量子计算有望改变格局的关键所在。

什么是量子计算?

经典计算与量子计算在多个方面存在差异,其中之一便是处理方式:经典计算采用线性处理(逐步完成计算),而量子计算采用并行处理(同时进行多组计算)。

二者的另一核心差异在于基础处理单元。经典计算机以 “比特(bit)” 作为最小数据单位,取值只能是 0 或 1;量子计算机以 “量子比特(qubit,简称量子位)” 为基础,其运作遵循量子力学定律。借助 “叠加态” 现象,量子比特可同时表示 0 和 1 两种状态。

量子计算机还能利用另一项量子特性 ——纠缠态:两个量子比特相互关联,无论相距多远,一个量子比特的状态变化都会立即影响另一个的状态。正是 “叠加态” 与 “纠缠态” 的结合,让量子计算机在解决复杂问题时速度远超传统计算机:对于某些经典计算需要数周甚至数年才能完成的任务,量子计算可能仅需几小时就能搞定。

那么,量子计算为何尚未普及?

原因在于,依赖定制量子芯片运行的量子计算机极为精密,需在极低温度环境下才能正常工作,且体积庞大,目前尚无日常实用价值。尽管如此,英特尔(Intel)、谷歌(Google)、IBM、亚马逊(Amazon)、微软(Microsoft)等企业仍在量子计算领域投入巨资,这场 “让量子计算具备实用价值” 的竞赛已全面展开。对于多数企业而言,自建量子计算机的资金与专业团队门槛过高,但亚马逊 Braket、谷歌量子 AI 等云量子计算服务,为其提供了可行的接入途径。

量子 AI 是否切实可行?

尽管量子 AI 的潜力巨大,但目前外界对其主要的质疑在于:相关宣传炒作过多,而切实可行的应用场景较少。量子 AI 面临着硬件不稳定、需开发专用算法等挑战。不过,随着错误校正技术的改进与量子比特稳定性的提升,量子 AI 的可靠性正逐步增强。

当前的量子计算机(如 IBM 的 Quantum System Two、谷歌的量子设备)虽能处理部分计算任务,但尚未具备运行大规模 AI 模型的能力。此外,量子计算对环境要求极高(需高度可控的物理环境),如何扩大规模以实现广泛应用,仍是一大难题。

因此,多数专家认为,要实现完全成熟的量子 AI,我们可能还需要数年时间。正如 LDG 科技咨询公司总裁劳伦斯・加斯曼(Lawrence Gasman)在 2024 年初为《福布斯》撰写的文章中所言:“量子 AI 仍处于起步阶段,对许多机构而言,当下涉足量子 AI 或许为时过早,甚至没有必要。”

未来的量子 AI

量子 AI 目前仍处于早期试验阶段,但无疑是一项极具前景的技术。当前,AI 模型的能力受限于经典计算机的算力,尤其是在处理海量数据或运行复杂模拟时表现得更为明显。而量子计算有望为 AI 提供关键助力,使其能以超高速处理大规模、复杂的数据集。

尽管量子 AI 在现实世界的具体应用尚处于推测阶段,但我们可预见,以下领域将从这一技术突破中获益最多:金融交易、自然语言处理、图像与语音识别、医疗诊断、机器人技术、药物研发、供应链物流、基于抗量子密码学的网络安全,以及自动驾驶车辆的交通管理。

此外,量子计算还将从以下方面提升 AI 的能力:

1. 加速大型 AI 模型训练:训练 LLM 等大型 AI 模型需消耗大量时间与算力,这也是 AI 企业依赖大型数据中心的原因之一。量子计算可大幅缩短训练周期,让模型学习更快速、高效 —— 原本需要数周或数月的训练过程,量子 AI 模型可能只需几天就能完成。

2. 提升模式识别能力:AI 的核心优势之一是模式识别(如图像、文本、数字中的模式)。量子计算可同时处理多种可能性,从而实现更快、更精准的模式识别。这对于需同时考量多种因素的领域(如金融交易中的市场预测)尤为重要。

3. 突破生成式 AI 局限:尽管生成式 AI 工具已令人惊叹,但在生成逼真、细腻的输出内容时仍有不足。量子 AI 可让生成式模型处理更多数据,进而生成更真实、更复杂的内容。

4. 优化多因素决策:在药物研发、气候建模等需平衡多种因素的决策场景中,量子计算机可支持 AI 同时测试无数种可能的场景与结果,帮助科学家在较短时间内找到最优解决方案。