在物理学中,时间是一个有争议的话题。到目前为止,大多数人已经听说过量子计算是一项革命性的技术,它的原理是利用量子的新奇特性,以比普通计算机更快的速度解决特定的问题(比如大数分解)。这些问题在许多领域都存在,从数学到零售业,从物理学到金融学,无处不在。一旦某个国家拥有了这样的量子技术,国家整体的经济实力将得到明显提升,竞争力也会随之增强。
20世纪80年代,量子计算的广阔前景开始被科学家意识到,但至今仍未真正实现。量子计算机的设计、制造和编程都非常困难,因为噪声、错误以及各种量子退相干效应都会影响量子计算机的性能,甚至会对量子计算机的运行产生致命影响。
由振动、温度涨落、电磁波和其他与外界环境相互作用引起的相干性的丧失叫做退相干,这种效应会破坏量子特性。考虑到目前普遍存在的退相干和其他影响因素,即使在执行时间很短的情况下,现代量子计算机也不太可能具有太大的实用性。
尽管科学家正在解决这些问题,但还没有一个现有的硬件平台能够保持相干性并提供大规模计算所需的稳定纠错能力。有价值的突破或许还要等待很多年才能出现。
与此同时,一个价值数十亿美元的问题是,在完成真正的量子计算机之前,我们如何从一台不可靠的量子计算机中获得有用的结果?
答案来自多个方面,工业界、学术界和国家实验室的研究人员正在寻求减少量子计算机错误的方法。其中一种方法是根据不同噪声水平下的计算结果来估计无错误的计算结果。另一种方法是混合量子经典算法,只在量子计算机上运行一个程序中最关键的部分,而其他大部分的程序则在更稳定的经典计算机上运行。事实证明,这些方案对于消除噪声环境对量子计算机的影响都非常有用。
虽然经典计算机也受到各种错误源的影响,但这些错误可以通过适量的额外存储和逻辑来纠正。量子纠错方案确实存在,但它消耗了太多的量子比特,以至于可以用于实际计算的量子比特比用于纠错的更少(这就好像军队在战场上需要动员十个战士去保护一个伤员一样,损失了部队的整体战斗力)。
为了更清楚地说明节约量子比特的重要性,我们要知道,基于量子比特逻辑门的量子计算机,类似于你读这篇文章时所用的电脑、手机或平板电脑中的那些逻辑门,而即使当今最先进的量子计算机也只有50个量子比特。而你的电子设备中,经典比特的数量是以千亿计。
麻烦在于,量子力学挑战了我们的直觉。因此我们很难找出执行量子计算的最佳算法。为了克服这些问题,我们在美国洛斯阿拉莫斯国家实验室的团队正在开发一种方法来发明和优化算法,从而在有噪声的量子计算机上执行任务。
算法即是一系列有序的命令,可以告诉计算机怎么去做某件事情,类似于烹饪食谱。与经典算法相比,量子算法与程序应该越短越好,并且我们发现,量子程序最好是针对于硬件设备的特定缺陷和噪声区域而定制。这才能使得该算法在退相干效应将正确结果破坏之前,执行更多的处理步骤。
在洛斯阿拉莫斯的量子计算跨学科研究工作中,我们正在努力解决使量子算法有效运行的关键部分。其主要思想是减少算法中逻辑门的数量,从而使程序在被退相干和其他错误源破坏到不可接受的地步之前执行完程序。
我们使用机器学习,设计与编译了针对于特定量子计算机的最佳量子电路。到目前为止,我们已在经典计算机上使用机器学习方法来寻找最简洁的量子算法版本(量子算法的撰写工作也是在经典计算机上做出来的)。现在,在最近的一项突破中,我们设计了一种方法可以让现有的量子计算机去编写适应于自身的量子算法。这将避免在经典计算机中模拟量子动力学所需的巨大计算资源。
由于这种方法产生的算法比目前最新的算法都要短,因此可以减少噪声的影响。这种机器学习方法还可以针对特定的算法和硬件平台补偿错误。例如,如果发现一个量子比特比另一个量子比特更能抵抗噪声的干扰,这时算法将优先使用那个更好的量子比特。然后,机器学习方法可以自己创造算法,这样我们使用最少的计算资源和最少的逻辑门就可以在量子计算机上执行任务。如此优化后,更长的算法就可以运行了。
现在,这种特定配置的量子计算机已在云端上向公众开放。公众可以利用量子计算机的优越性能进行创新研究,也可以为未来的大型量子计算机在解决大型现实问题上提供算法扩展功能。
我们的工作已经取得一定成果,未来将为专家和普通用户提供量子计算工具。程序开发人员可以开始在这个量子计算平台上设计更好的程序,从而使其性能超越传统计算机。
撰文:斯科特·帕金(Scott Pakin)、帕特里克·科尔斯(Patrick Coles)
翻译:安钧鸿
在物理学中,时间是一个有争议的话题。到目前为止,大多数人已经听说过量子计算是一项革命性的技术,它的原理是利用量子的新奇特性,以比普通计算机更快的速度解决特定的问题(比如大数分解)。这些问题在许多领域都存在,从数学到零售业,从物理学到金融学,无处不在。一旦某个国家拥有了这样的量子技术,国家整体的经济实力将得到明显提升,竞争力也会随之增强。
20世纪80年代,量子计算的广阔前景开始被科学家意识到,但至今仍未真正实现。量子计算机的设计、制造和编程都非常困难,因为噪声、错误以及各种量子退相干效应都会影响量子计算机的性能,甚至会对量子计算机的运行产生致命影响。
由振动、温度涨落、电磁波和其他与外界环境相互作用引起的相干性的丧失叫做退相干,这种效应会破坏量子特性。考虑到目前普遍存在的退相干和其他影响因素,即使在执行时间很短的情况下,现代量子计算机也不太可能具有太大的实用性。
尽管科学家正在解决这些问题,但还没有一个现有的硬件平台能够保持相干性并提供大规模计算所需的稳定纠错能力。有价值的突破或许还要等待很多年才能出现。
与此同时,一个价值数十亿美元的问题是,在完成真正的量子计算机之前,我们如何从一台不可靠的量子计算机中获得有用的结果?
答案来自多个方面,工业界、学术界和国家实验室的研究人员正在寻求减少量子计算机错误的方法。其中一种方法是根据不同噪声水平下的计算结果来估计无错误的计算结果。另一种方法是混合量子经典算法,只在量子计算机上运行一个程序中最关键的部分,而其他大部分的程序则在更稳定的经典计算机上运行。事实证明,这些方案对于消除噪声环境对量子计算机的影响都非常有用。
虽然经典计算机也受到各种错误源的影响,但这些错误可以通过适量的额外存储和逻辑来纠正。量子纠错方案确实存在,但它消耗了太多的量子比特,以至于可以用于实际计算的量子比特比用于纠错的更少(这就好像军队在战场上需要动员十个战士去保护一个伤员一样,损失了部队的整体战斗力)。
为了更清楚地说明节约量子比特的重要性,我们要知道,基于量子比特逻辑门的量子计算机,类似于你读这篇文章时所用的电脑、手机或平板电脑中的那些逻辑门,而即使当今最先进的量子计算机也只有50个量子比特。而你的电子设备中,经典比特的数量是以千亿计。
麻烦在于,量子力学挑战了我们的直觉。因此我们很难找出执行量子计算的最佳算法。为了克服这些问题,我们在美国洛斯阿拉莫斯国家实验室的团队正在开发一种方法来发明和优化算法,从而在有噪声的量子计算机上执行任务。
算法即是一系列有序的命令,可以告诉计算机怎么去做某件事情,类似于烹饪食谱。与经典算法相比,量子算法与程序应该越短越好,并且我们发现,量子程序最好是针对于硬件设备的特定缺陷和噪声区域而定制。这才能使得该算法在退相干效应将正确结果破坏之前,执行更多的处理步骤。
在洛斯阿拉莫斯的量子计算跨学科研究工作中,我们正在努力解决使量子算法有效运行的关键部分。其主要思想是减少算法中逻辑门的数量,从而使程序在被退相干和其他错误源破坏到不可接受的地步之前执行完程序。
我们使用机器学习,设计与编译了针对于特定量子计算机的最佳量子电路。到目前为止,我们已在经典计算机上使用机器学习方法来寻找最简洁的量子算法版本(量子算法的撰写工作也是在经典计算机上做出来的)。现在,在最近的一项突破中,我们设计了一种方法可以让现有的量子计算机去编写适应于自身的量子算法。这将避免在经典计算机中模拟量子动力学所需的巨大计算资源。
由于这种方法产生的算法比目前最新的算法都要短,因此可以减少噪声的影响。这种机器学习方法还可以针对特定的算法和硬件平台补偿错误。例如,如果发现一个量子比特比另一个量子比特更能抵抗噪声的干扰,这时算法将优先使用那个更好的量子比特。然后,机器学习方法可以自己创造算法,这样我们使用最少的计算资源和最少的逻辑门就可以在量子计算机上执行任务。如此优化后,更长的算法就可以运行了。
现在,这种特定配置的量子计算机已在云端上向公众开放。公众可以利用量子计算机的优越性能进行创新研究,也可以为未来的大型量子计算机在解决大型现实问题上提供算法扩展功能。
我们的工作已经取得一定成果,未来将为专家和普通用户提供量子计算工具。程序开发人员可以开始在这个量子计算平台上设计更好的程序,从而使其性能超越传统计算机。
撰文:斯科特·帕金(Scott Pakin)、帕特里克·科尔斯(Patrick Coles)
翻译:安钧鸿