量子计算这个梦,是如何一步步照进现实的?
发布时间:2023-05-25 11:13:42 所属栏目:外闻 来源:
导读:16世纪以来,世界科技界共经历了五次革命,其中包括两次科学革命以及三次技术革命。第一次科学革命以经典力学为代表,在伽利略和很多科学家的基础之上,实现了自然科学的第一次大综合,成为之后的两次工业革命的理论基
|
16世纪以来,世界科技界共经历了五次革命,其中包括两次科学革命以及三次技术革命。第一次科学革命以经典力学为代表,在伽利略和很多科学家的基础之上,实现了自然科学的第一次大综合,成为之后的两次工业革命的理论基础。 第二次科技革命以量子力学和相对论为标志,20世纪初的科学家们发现,牛顿的经典力学只能用于宏观、低速(相对于光速)的情形下,在微观世界和接近光速以及强引力场下无能为力,于是量子力学和相对论诞生了。 从此,人类进入了一个崭新的时代——信息时代。当量子力学被应用到固体等复杂体系时,它解释了材料为何有导体、半导体和绝缘体之分,并提出了半导体二极管、三极管等概念,后来发展为集成电路,成为现代电子计算机的技术基础。 诺贝尔奖得主李政道说过:“如果没有狭义相对论和量子力学的诞生,就不会有后来的原子结构、分子物理、核能、激光、半导体、超导体、超级计算机等一切科学文化的发展。” 尽管晶体管、集成电路等器件的微观原理都涉及量子力学,但这些功能器件依然要遵从几乎所有的经典物理规律。这是第一次量子革命。 第二次量子革命则是直接开发基于量子特性本身的量子器件,它以量子比特为单元,信息的产生、传输、存储、处理、操控等全都基于量子力学规律,称为量子信息技术。 理查德·费曼是一位天才物理学家,1942年,只有24岁的费曼参加了研制原子弹的曼哈顿计划。费曼在量子力学领域也贡献颇多,1965年因在量子力学方面的贡献获得诺贝尔物理学奖。 费曼不仅对量子理论贡献巨大,还是提出量子计算设想的第一人。那是1981年,物理学家爱德华·弗雷德金组织了一次“物理与计算”会议,费曼应邀作了“用计算机模拟物理”的报告。费曼在报告中提出了两个问题: 经典计算机是否能够有效地模拟量子系统?答案是否定的,因为计算量将随着系统的增大(微观粒子数的增加)而指数式增加。如果从微观世界的规律开始计算,由于研究对象包含的粒子数非常大,现代经典计算机的计算能力已经远远不能胜任这项工作。 如果放弃经典的图灵机模型,是否可以做得更好?费曼认为要想模拟这个量子行为的世界,就得研究微观世界的量子是如何工作的,然后建造一个按照量子力学的规律来运行的计算机才能成功模拟它。 我们知道,量子计算利用的是量子叠加的特性。多个量子比特与同样数目的经典比特比较,差别是指数级的。N个经典比特一次表示的数字只有1个,N个量子比特一次表示的数字数目为2的N次方。当N=250时,可以表示的数字数目比宇宙中所有原子的数目还要多。 假设我们有一个由3个量子比特构成的计算器。对于3比特的经典系统而言,二进制的101加上二进制的010得到111,即十进制的5+2=7。而对于3个量子比特的系统,每个量子比特都是0和1的叠加,一次就能表示0到7(十进制)这8个数。当我们输入2(二进制010),并发出运算指令后,所有8个数都开始运算,都加2,并同时得出8个结果(2、3……9)。 也就是说,一个经典的3比特系统一次计算只能得到一个结果,量子系统一次计算就可以得到8个结果,相当于8个经典计算同时进行运算,从某种意义上讲,相当于把计算速度提高到8倍。 量子力学里的波函数坍缩,在这里叫“退相干”现象。退相干使得量子系统回到经典状态,叠加态坍缩到固定的本征态,粒子之间不再互相纠缠。退相干如果发生在计算过程中,就会影响运算结果,使量子计算出现错误,过高的错误率极大地阻碍了量子计算的实现。 量子计算机最终还是需要接触外界,才能得到输出结果。量子计算机的计算结果通过对输出态进行量子测量而得到。 假设结果是0与1的叠加态,输出就会使得这个量子比特的叠加态变成确定的本征态0或1,或许你有60%的概率测到0,40%的概率测到1,但测量只能进行一次,测量后整个状态便很相干了。 为什么将近四十年才做到几十个量子比特?并非量子计算的研究长期停滞,而是因为从概念到算法再到物理实现(可以实际应用的量子计算机),每一步都不简单。 上世纪90年代以来,量子计算机的算法发展得到巨大的进步。在量子算法的研究中,出现了三个里程碑式的重要算法:Shor算法、Grove算法和HHL算法。 早在1985年,牛津大学的David Deutsch提出量子图灵机的概念,量子计算开始具备了数学的基本型式。1992年于剑桥大学的Richard Jozsa提出了所谓的Deutsch-Jozsa量子算法。 Deutsch-Jozsa算法演示说明量子计算如何在计算能力上远超经典计算,它是量子并行计算理论的基石,著名的Shor大数分解算法就是以它为基础的。 RSA加密算法是1977年由Ron Rivest、Adi Shamir和Leonard Adleman一起提出的。该算法基于一个简单的数论事实:将两个质数相乘较为容易,反过来,将其乘积进行因式分解而找到构成它的质数却非常困难。 对于经典计算机而言,破解高位数的RSA密码基本不可能。例如,一个每秒能做1012次运算的机器,破解一个300位的RSA密码需要15万年。 Shor算法就不一样了,它能够利用量子计算机快速找到整数的质因数。比起传统已知最快的因数分解算法、普通数域筛选法还要快了一个指数的差异。 据美国国家科学、工程和医学院2018年发表的量子计算报告预测,运行Shor算法的量子计算机将能够在一天内破解RSA 1024位加密。破解刚才那个300位的密码,不过是一眨眼的时间。 这对于国际竞争来说意义非凡:如果在战争中,敌方拥有量子计算机的话,破解我方通信将变得轻而易举,这太可怕了!虽然通用的量子计算机目前尚未开发出来,但防患于未然还是有必要的,这就是如今各个大国大公司都在研究量子通信技术的原因。 一方面,大家都想先别人一步制造出可以轻松破解RSA密码的量子计算机,另一方面,各国也都在加紧研发连量子计算机也不能破解的加密体系。 1996年,贝尔实验室的洛夫·格罗弗(Lov Grover)提出了Grover量子搜索算法,该算法被公认为继Shor算法后的第二大算法。Grover算法的作用是从大量未分类的个体中,快速寻找出某个特定的个体。 如果使用经典计算机搜寻,只能一个接一个地考察,直到找到为止。设路线为N条,平均来说需要搜索N次,而采用量子搜索算法的话,则可以以√N的速度进行搜索,这是由量子叠加态决定的。 除了加快搜索速度以外,在读取结果之前,Grover算法让量子计算机重复进行某些“操作”来改变待输出的量,使它刚好等于目标的概率增加到接近1。然后,人们再从计算机中读取输出状态。 如今,Shor算法和Grover算法,已经成为构造其他量子算法的重要基础。终极目标是制造一台优于传统计算机的通用量子计算机,其能够运用Shor算法对大数进行因式分解,运用Grover算法执行数据库检索,以及运行专门的量子计算机应用程序。 2008年,麻省理工学院的Aram Harrow、Avinatan Hassidim和Seth Lloyd三位学者联合开发了一种求解线性系统的量子算法。比如在一个N×N的矩阵中,若采用高斯消元法可以在O(N3)时间内求解,HHL算法则可以在O(log2N)时间内求解,从而达到加速的目的。 HHL算法的提出意义重大。线性系统是很多科学家和工程领域的核心,HHL算法将是未来能够在机器学习、人工智能科技得以突破的关键性技术。 新的量子算法陆续被提出来,科学家接下来所面临的重要的课题之一,就是如何去建造一部真正的量子计算机来运行这些量子算法。 2000年DiVincenzo提出了5条标准,只有满足这5条标准的物理体系才有望构建出可行的量子计算机:(1)可以定义量子比特,(2)量子比特有足够的相干时间,(3)量子比特可以初始化,(4)可以实现通用的量子集合,(5)量子比特可以被读出。 许多量子系统都被设想为量子计算机的基础架构,例如偏振光子、量子电动力学、离子阱以及核磁共振等等。当前,考虑到系统可扩展性和操控精度等因素,离子阱超导系统走在了前面。 离子阱是最早尝试实现量子计算的物理体系。该体系实现量子计算的理论方案最早由欧洲的Cirac和Zoller于1994年提出,同年,美国国家标准与技术委员会(NIST)开始了该方向的实验研究。 既然离子阱所擅长的地方在于控制,那么,离子阱技术路线相较于其他路线而言最大的优势就是稳定了。来自杜克大学的Jungsang Kim教授曾在2014年撰文表示:酒精离子可以生成非常稳定的量子比特。它们可以提供稳定且可靠的格离相互作用程度及其良好的量子控制系统的系统。 (编辑:汽车网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐
