今年是联合国确定的“国际量子科学技术年”,是德国物理学家海森堡于1925年提出量子力学的数学表达“矩阵力学”的100周年纪念。谷歌是最早大力宣传国际量子科学技术年的企业,去年年底,谷歌发布了一款名为“Willow”的新型量子芯片,引起了广泛关注。
全球量子计算机市场的领头羊是IBM和谷歌。自2019年谷歌开始认真研究量子计算机以来,这两家公司一直在激烈竞争。两家公司都设定了在2030年实现量子计算机商业化的目标。最近,英伟达首席执行官黄仁勋指出,量子计算机的商业化需要20年,而谷歌和IBM的目标是在10年内实现。
虽然商业化目标一致,但两家公司的战略却存在很大差异。IBM 专注于扩大量子比特容量,以最大限度地提高其量子计算机的计算能力。相比之下,谷歌则专注于最小化量子计算中固有的量子误差,以提高准确性。两者中谁将最终胜出?
IBM 一直致力于量子比特扩展,每年都会发布量子计算机路线图。从 2019 年发布 27 量子比特量子计算机芯片“Falcon”开始,它宣布 2020 年将达到 65 量子比特,2021 年将达到 127 量子比特,2022 年将达到 433 量子比特,2023 年将达到 1,121 量子比特。去年,它推出了 1,386 量子比特级别的芯片“Flamingo”,并宣布计划今年推出 4,158 量子比特芯片“Cockatoo”。IBM 专注于通过平均每年将量子比特数量增加一倍以上来提高性能。考虑到韩国的目标是在 2032 年之前开发出 1,000 量子比特的量子计算机,IBM 的技术能力已经远远领先于竞争对手。
传统计算机以比特为单位处理信息,根据电子的存在与否将其分为 0 和 1。而量子计算机的单位是量子比特,即 0 和 1 状态的叠加。利用这一特性,量子计算机可以同时处理多个操作。量子比特的数量被认为是决定量子计算机计算性能的关键因素。
韩国科学技术研究院(KIST)首席研究员韩相旭表示,“量子比特越多,意味着可以同时处理更多变量”,并补充道,“例如,预测天气时如果有 1,000 个量子比特,就可以计算 1,000 个变量;如果有 10,000 个量子比特,就可以考虑 10,000 个变量的影响,从而提高计算精度。”
IBM 的策略是通过充分增加量子比特的数量来取得技术优势。众所周知,量子计算机需要大约 1,000 个量子比特才能超越传统计算机的性能。然而,随着量子比特数量的增加,计算的准确性往往会下降。
谷歌更关注的是最小化量子误差,而不是量子比特的数量。量子误差是指由于量子比特的不稳定性而导致的计算不准确性。科学家估计,现有的量子计算机的量子误差在 0.1% 到 1% 之间。假设量子误差为 1%,如果计算重复 100 次,准确率就会急剧下降到 36%。
科学界早已评估,纠正量子误差,即所谓的“量子纠错”,在实践上可能是不可能的。然而,谷歌上月9日宣布量子计算机芯片“Willow”时证实了量子纠错的可行性。谷歌也一直在研究解决量子误差的方法。
谷歌于2023年在科学期刊《自然》上同时公布了利用多个量子比特修正量子误差的技术。谷歌的策略是,不是用单个量子比特,而是用由多个量子比特组成的“逻辑量子比特”执行单个操作。通过同时使用多个量子比特,该方法可以检测并修正计算过程中发生的量子误差。在Willow宣布的两个月前,谷歌用一台67量子比特的量子计算机展示了超越超级计算机的计算能力。谷歌指出,它在此阶段成功增强了量子比特的稳定性,称其为“微弱的噪音”。
IBM 回应谷歌的量子纠错技术时表示,如果没有足够的量子比特,这种方法就无法实现。IBM 量子计算负责人 Jay Gambetta 评估称,“要使用谷歌的纠错方法进行实际计算,需要数十亿个量子比特。”
不过,科学界认为,量子计算机要走向商业化,必须同时实现量子比特规模的扩大和量子纠错。事实上,IBM 从去年开始就积极研究量子纠错,谷歌也在不断提升量子比特规模。
韩尚旭指出,“虽然两家公司用于营销目的的技术不同,但最终他们都在研究如何扩大量子比特规模并最大限度地减少量子误差”,并补充道,“在商业化阶段,两家公司最终都需要获得扩大量子比特和纠正量子误差的技术。”
韩国也在开发自己的量子纠错技术,确保量子计算机商业化所需的基础技术。韩国科学技术研究院量子技术研究中心首席研究员李承宇及其团队开发了一种量子纠错方法,即使量子比特规模增加,错误也不会累积。与开发超导量子计算机的谷歌和IBM不同,韩国科学技术研究院的研究团队正在研究光子量子计算机。被认为是该领域最先进的美国量子计算机公司SiQuantum的最大损失阈值约为2.7%。韩国科学技术研究院的研究团队已将最大阈值提高到14%,超过了这一数字。
李承宇表示:“与芯片设计技术一样,量子计算的架构设计也至关重要。即使有 1,000 个量子比特,如果没有纠错结构,执行单个逻辑量子比特操作也会变得困难。”他补充道:“量子计算的实际实现仍需要时间,但这项研究略微推进了这一时间表。”
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。