当前位置:首页 > fun88体育官方|app手机版
贴心完善,保障您购买无忧~
2024年12月9日,谷歌宣布最新量子处理器Willow的突破性成果,引发长期资金市场剧烈波动:各种量子计算概念股暴涨、一个月内翻了几倍;
2025年1月初,英伟达创始人黄仁勋泼冷水,“有用的量子计算还要等十几年”,meta的CEO扎克伯格也公开表达了类似观点,让量子计算概念股狂跌。
在2月19日,微软宣布推出一种全新的量子计算解决方案:全球首款“拓扑体”量子计算芯片Majorana 1。这给业界和市场又注入了新的乐观情绪,让量子概念股出现反弹。然而,微软的论文却因为未能提供足够数据,并未说服业内众多科学家,引发广泛争议。
这项革命性技术为何能够引发科技大佬们之间的争议?各家巨头的路线布局有何不同?它会如何颠覆如AI、银行金融及区块链等市场?以及,量子计算距离普通人到底有多远?是概念炒作还是下一个计算革命的开端?
带着这样一些问题,我们走进硅谷的一家量子计算机实验室,还有机会亲手帮忙安装了台量子计算机,同时与从业者们一起聊聊量子计算和硅谷五大派系的量子角力。
在经典计算机中,所有的信息都是用0和1来表示的,比特是最小的信息单位,在任何时刻只能处于两种状态(0或1)中的一种。
但在量子计算机中,量子比特不但可以是0或1,还可以同时处于0和1的叠加状态,但这并不代表它同时是0和1:它处于一种概率分布状态。
正如薛定谔的猫既是活的又是死的,量子比特在被测量之前有一定的概率是0,也有一定的概率是1。
或者以一枚快速旋转的硬币为例:在经典物理中,硬币只有正面朝上和反面朝上两种可能,但如果把硬币旋转起来,停下之前的硬币同时具有可能是正面和可能是反面的特性。旋转的状态某一些程度上便类似量子比特的叠加态。
此外,量子比特之间还可以产生纠缠,而一个量子比特的状态改变,会立即影响到与之纠缠的其他量子比特。
假设有两只被分开放置的魔术手套,彼此会影响颜色,而一旦左手手套被戴上后会随机变成红色或蓝色,此时远处的右手手套则立即变成相反的颜色,这种相关性不受距离影响。
这种特性使得量子计算机可以同时对多种状态进行运算:假设有3个量子比特,由于叠加态的存在,它们能同时表示8种(23)不同的状态;传统计算机则只能一个个处理。
量子计算机相比经典计算机的优势,可以类比《三体》里提到的多维空间:假设要从A点到B点,如果中间有障碍物,在二维平面上一定要通过绕路才能到达,而三维空间中则能轻松地跨越这些障碍。
经典计算机中,所有信息都是用0和1表示的,就像二维平面上的生物,只能左右或前后移动;而量子计算机中,量子比特能够同时处于0和1的叠加态,还能与其他量子比特产生纠缠,这就像获得了往上下方向延展的能力。
所以量子计算的本质就是:它不是简单地让计算变得更快,而是提供了一种全新的计算维度。
仅仅10个量子比特,就能够探索210(1024)个维度的空间;当量子比特增加到50个,这个空间就大到连最强大的超级计算机也无法模拟。这种维度爆炸正是量子计算强大的根源。
不过量子比特的脆弱性,使其极易发生退相干现象(因环境干扰而失去量子态)。这导致系统错误率会随量子比特数量呈指数级增长,就像搭建积木,层数越高,微小误差累积引发的崩塌风险就越大,最终使得计算结果可靠性骤降。
这个困扰了科学家们几十年的难题,直到2024年谷歌Willow的出现才迎来转机。
2024年12月9日,Google发布了新型量子芯片Willow。它只用不到5分钟便能够实现传统超级计算机需要1025年的标准基准的计算,震撼了整个科技界。
其实这不是量子计算第一次进入大众的视野。2019年,同属谷歌旗下的“Sycamore”量子处理器首次证明了量子优越性,即量子计算机能够在特定问题上超越最强大的经典超级计算机。
当时,Sycamore处理器被证明能够在3分20秒内,执行Summit(当时最强大的经典超级计算机)大概需要10000年完成的计算。这在当年也引发了外界和媒体的关注。
但相比起当时的Sycamore给外界带来的震撼,这一次谷歌发布的Willow更是上了好几个台阶。
Willow最大的突破在于,随着谷歌使用更多的量子比特,Willow可以成倍地减少错误。这解决了量子计算近30年来一直在研究的量子纠错的关键挑战。
当时存在的问题是随着量子比特数量做多、总系统做大,量子计算机的可靠性是会降低的。而Willow 最关键的成就之一是,它证明了随着量子比特数的增加、整个量子计算机规模的扩大,算力也是稳步提升的。那就能够正常的看到一个非常确定的路线,只要沿着这条路线走下去,最终一定会能达到那个阈值,实现量子计算机对实际应用问题的可行性。
量子计算面临的最大挑战之一是“错误”。因为量子比特会与周围环境快速交换信息,很难保护完成计算所需要的信息,而使用的量子比特越多,错误也就会越多。就像庞大的交响乐团,用的乐器越多反而越容易跑调。
然而Willow打破了这个魔咒,原因就在于它独特的量子纠错方案:将多个物理量子比特组合成一个逻辑量子比特,这些量子比特通过特殊的算法,可以相互校验和纠正错误,以此来降低整体系统的错误率。这也代表着,它的量子比特用得越多,错误反而越少。就像在高楼中的减震系统,让高建筑也能保持稳定。
要证明在纠错方面取得了真正的进展,就必须证明“低于阈值”,即错误率的指数级降低。
谷歌量子计算团队从3×3的量子比特网格开始测试,扩展到5×5、7×7,每次扩展的错误率都会降低一半。可以说,Willow这次摘下了1995年以来量子计算领域的圣杯。
因此,业内很多人将Willow称为量子计算的Transformer时刻:就像Transformer架构证明了深度学习模型可以不断地堆叠、持续地扩大,Willow也首次证明了量子计算机能够在保持稳定性的同时不断地扩展规模。
作为首个实现“低于阈值”的系统,Willow证明了实用的超大型量子计算机是可以被造出来的。
正如谷歌自己在博客文章中写道:“这有力地表明,实用的超大型量子计算机确实可以构建。Willow让我们更接近运行传统计算机上无法复制的实用、商业相关算法。”
Willow大约有150个量子比特,而谷歌计划最终构建一个拥有100万个量子比特的系统。作为谷歌开发“可执行有用应用”的量子计算机六步战略中的第二个里程碑,它的突破性发展给谷歌的量子计算带来了清晰的发展路径。
谷歌的量子计算路线图一直非常清晰,已经公布了到2030年以后的量子路线图。而且,他们在两三年前的路线图上,就已经标定了(Willow)2024年会实现。我们正真看到它的路线图在精准地完成,所以我们很相信谷歌的预估时间,这也加强了我们的信心,无论是谷歌还是我们自己,都会一步一个脚印,渐进性的发展。
如果说Willow是量子计算的Transformer时刻,那量子计算的GPT时刻就是:量子计算机能可靠地解决大规模的质因数分解问题的时候。这不仅是一个技术指标,更是量子计算真正展现实用价值的一个转折点。
根据各大公司的时间线规划,这个“量子GPT时刻”可能会在2030年左右到来,标志着完备的、大规模的量子计算机的诞生,这点让量子计算的业内从业者大受鼓舞。
大家都在追求完备的量子硬件,但要一定的时间。特别是Willow出现后,让接下来5~6年的时间线更明确了,因为工程上已经验证了第一步,下一步就是把它规模化。基本上Google、IBM路线图都是公开的,即使不同公司的时间线会略有浮动,但大多数都是在2030~2032年,会做出一个完备的、容错的量子计算机,可以去跑各种指数级加速算法。
而Willow的成功,让量子计算从一个科学问题变成了一个工程挑战;前沿科技研究员们找到了通往量子计算实用化的明确路径:AI+软件+硬件。
量子相关的软件和硬件是相辅相成的。从最底层的芯片设计来说,软件辅助设计,像英伟达和谷歌今年已经用GPU甚至用AI来加速最底层芯片的仿真和设计优化,这是最底层的软件和量子硬件的结合。再往上一层是,当芯片产出后,需要对芯片进行一定的标定。现在CPU的中间层也夹杂着很多偏向机器语言的底层软件层。而软件能代替人工来对芯片的参数、运行模式进行一定的标定,而且对芯片的工作状态进行一定的优化。软件和AI在这上面的作用其实非常的大。
Willow的发布,以及谷歌对量子计算的明确路径在科技巨头之间引发了有趣的趋同现象。比如,IBM原本坚持固定参数路线、追求单个量子比特的极致性能,但也开始向谷歌的可调路线靠拢。
最引人注目的三大玩家(IBM、谷歌和亚马逊)背后都有一段学术界师承。IBM最早的量子芯片设计来自耶鲁,当年耶鲁实验室里有两位门对门的研究者。
另一位则是Michel Devoret教授,他的学生Chad Rigetti也加入了IBM工作,之后于2013年自己出来创立了Rigetti Computing公司,也是如今在风口浪尖上的量子计算概念股之一。
另外一个巨头亚马逊,在2021年大手笔把加州理工大学的量子计算实验室收入麾下,在那里创立了AWS量子计算中心。我们的访谈嘉宾Roger正是当年加州理工量子计算团队的博士,之后进入伯克利大学做博士后。
这种设计在小规模上很稳定,但要做大很有挑战,不过IBM有自己的芯片工厂,有信心把制造精度做到位。用业内人士的话说,这就是求稳的路线。
其实在当年肯定是合理的,但是有个小问题:控制参数少、固定参数,复杂性小的代价是,把总系统做大会很复杂,因为不可调的参太多了,意味着制作的完整过程就必须非常精准,而且随着芯片做的越大,精度要求就越高。最早的大学实验就两个比特,参数怎么都不会有太大问题,当要造一百个、一千个的时候问题就大了。但是IBM公司够大,有资源去投入。
有点像安卓:不要求每个零件都完美,但是要保证整体能运行。这让他们能用大学实验室的设备就做出了突破性成果,不过也为此付出了一年的时间来迭代。
因为制造不是那么理想化的,所以UCSB(加州大学圣巴巴拉分校)团队要做到全部都可调。好处就是量子芯片的运转可编程,那么制造要求能够更好的降低。比如在2019年前,Google的芯片制造大部分还依靠大学的洁净室(clean room),不像很多别的团队上来就有几个亿的资金去做。他们要先证明第一步可行,Google才批准了更多经费去建造自己的洁净室和控制团队。
所以,他们选择完全可调、可控的方式,是为了以尽量简单的制造方式去达成目标,有一点像安卓的思路。但坏处就是这一个芯片的每一个部件都不算是业界领先,包括量子比特、耦合方式、保证度这些,虽然优秀但不领先。但就像硅谷一样,不锈钢能上天,为什么一定要用全世界最好的铝合金呢?Google也犯了这样的错误:去年他们第一次做出最早的量子纠错的成果,结果因为去年芯片不够好,所以他们花了一年的时间去迭代,而且还未达到最优秀。Willow是非常符合逻辑的迭代,不能叫做突破。从我们角度来看是灵活性的代价,因为芯片质量会低,但是他们都觉得可编程、可灵活性能带来更快的步骤、快速破局。
2020年,亚马逊入局量子计算领域时直接给了一位顶尖教授一整栋楼和100多人的团队,希望能后来居上。
超导量子比特,那时候都没人做出超过一个量子比特的耦合。理论上来说超导量子比特有更好的可扩展性,它需要的量子纠错更小,因为量子纠错有复杂度问题。Google、IBM的方式有很高的复杂度要求、要做很复杂的量子纠错的算法。就算亚马逊在2020年打算找一个相对简单的量子比特,因此选择了猫量子比特(Cat Qubits)。
量子计算目前发展缓慢的核心矛盾是量子比特非常脆弱,而微软在过去20年试图研发的“拓扑体”(topology)方案,是通过观察和控制马约拉纳(Majorana fermion)粒子产生更可靠和可扩展的量子比特。
再比如耳机线打结后,只是拉伸或挤压死结都不会松开,只有剪断耳机线结才会消失。因此,“结”也是一种拓扑结构,必须彻底破坏(剪断)才能改变。
此前瓶颈在于,开发相关拓扑态的合适材料难度极大,但微软在2月19号发布的全球首款“拓扑体”量子计算芯片Majorana 1证明了这种新路径的可行性,为量子计算的进一步研发增加了更多的方向。
微软最终的目标是在巴掌大的芯片上放入100万个量子比特,同时也在布局量子开发工具和云平台,试图在软件层面占得先机。
在过去十年时间,很多实验室和团队都在研究马约拉纳费米子,但都没有让人信服的进展,这期间《自然》杂志上的数篇相关论文都被陆续撤回,包括微软的科学家Leo Kouwenhoven于2018年在《自然》上发表的号称观察到马约拉纳费米子的论文,却在三年后承认此文有“技术错误”而撤回。
这些巨头的量子布局似乎都带着各家公司的“基因”:IBM稳健、谷歌灵活、亚马逊试图弯道超车、英伟达重生态、微软重平台。在量子计算这个新赛道上,每家公司都在试图复制自己在传统计算时代的成功经验。
而在这之上,量子计算领域也正在形成有趣的合作与竞争格局。虽然技术路线不一样,但是大家都意识到:量子计算不仅仅是硬件的比拼,还需要软件、算法和应用生态的支持。03 量子计算对各领域的影响
有声音称,量子计算虽然厉害,但离大规模应用还太遥远了,一台实验室里的量子计算机甚至还不如大家的手机有用。但现实情况是,量子计算已经在很多领域开始展现潜力了。
人工智能的发展正面临一个有趣的悖论:尽管我们见证了ChatGPT等大模型带来的突破,但是AI的根本性瓶颈却日益显现。
在最近的各种技术论坛和大会上,顶尖AI研究者们都指出了一个令人担忧的趋势:基于Transformer架构的传统AI正在遭遇泛化性不足的困境,它们需要消耗海量数据才能够提升性能。
更严峻的是,我们可能已只有少数的优质数据来支撑AI向AGI(通用AI)迈进了。
而在未来AI走入死胡同之际,量子计算很可能由于高维特性会带来新的希望。就像我们前面说的一样,传统计算像在平面上画画,量子计算则可以在立体空间甚至更高维度中工作。比如,仅靠10个量子比特就能探索2的10次方维度的空间,这种高维映射能力让量子机器学习算法能更容易地发现数据中隐藏的本质模式,就像是从高空能轻松俯瞰地面的全局图案。
维度不是不同的状态,维度这个空间就大多了。如果能将一个低维数据映射到高维空间做一些机器学习的话,有时会让模型更容易学习到数据里面的规律,这样两个数据集间的分类就很好做了。
量子计算机有望实现矩阵运算的指数级加速,这正是机器学习中最核心、最耗时的操作。这在某种程度上预示着未来训练一个AI模型的成本可能大幅降低。
通过更强的泛化能力,AI可能获得人类举一反三的学习能力,而不是简单地记忆大量数据。
如果用泛化性更强计算机体系,去训练量子AI学习模型,那么数据需求都会缩小不止一个数量级。无论经典部分还是量子部分,计算需求都会小很多。经典部分计算需求缩小是因为数据吞吐量小了一个数量级,而量子计算的优势是,扩展到更大维度的方式是非线性的、是指数级的,(比如每增加一个量子比特,计算能力就会翻倍),所以资源投入会更少、计算成本更低。从经济学角度来讲,对某些特定问题,如果你用10个量子比特,就能有210的维度去探索,但是经典计算机真得构造十个维度的空间去探索,这个成本是非常高的。
量子计算机最早被设想的应用之一,就是破解当前普遍的使用的“非对称加密算法”。这不仅威胁到密码货币,也关系到整个互联网的安全体系。
现在的密码货币,比如比特币,都依赖于特定的密码学算法。这些算法现在之所以安全,是因为传统计算机破解需要耗费天文数字般的时间;但量子计算机通过“平行计算”能力,可以在几分钟之内完成破解。
这在密码货币市场中引发了一些争议。比如,Avalanche创始人Emin Gün Sirer表示,目前的量子计算能力尚不足以威胁加密货币安全。
有一些新的区块链可能开始设计的时候,就会考虑引入一些相对可抗的、防止量子破解的方式,甚至包括我们现在常用的这些(算法),比如椭圆曲线年代末期的那些哈希算法和函数,已经算得上是比较 Quantum Safe(量子安全)了。
2.量子密钥分发则是利用量子力学原理实现绝对安全的通信。3.可升级架构则是让系统能够灵活地应对未来的安全威胁。
一些区块链项目甚至在设计能够无缝升级的系统,以便在必要的时候切换到量子安全的加密方案。
StarkWare其实很早就在做量子可抗性(Quantum resistance)的相关研究,并且在设计ZK platform(零知识平台)的时候也有考虑过。以太坊研究会也在做这方面的研究。如果在以太坊安全受到威胁的情况下,硬分叉是不可避免的,它没有很好的方法单纯的通过二层。因为量子计算如果能破解这几个加密或者哈希算法,动到的是以太坊的根基,甚至是比共识层还要基础的东西。(比特币)是相同的,假如有一个新的量子计算算法或者是硬件,可以获取比特币的加密算法和哈希,那就得通过硬分叉来解决。
其实还有一批人在研究,怎么借助量子计算来超越区块链。比如,因为量子态非常容易被摧毁,可能读取一次就被摧毁了,那就能通过这种方式去创建一次易。现在防止双花(double spending)的方式是把交易放到链上,然后穿透,通过全球共识来防止双花。(双花:同一笔密码货币被多次使用,通常是攻击者试图让已花费的资金回到自己手中,从而欺骗接收方。)
当人们还在争论量子计算是科幻还是现实的时候,一些领域已经悄然展开了实践。
在所有可能的应用场景中,金融机构走在了最前面。因为这个行业掌握了最真实的用户数据、有明确的应用场景、具备充足的研发资源。
此外,在材料科学领域,量子计算的优势更明显。因为量子计算机本质上就是一个量子系统,天然适合模拟其他的量子系统的行为。这项能力在新能源材料、航空航天材料和催化剂开发等领域都显示出巨大潜力。
同时量子计算在新材料开发方面具有先天优势,从更高效的太阳能电池到新型航空材料,都可以从量子模拟中受益。
量子机器学习希望能在真实的应用场景里面去产生有意义的结果。比如化工和物流行业,是通过混合量子系统去做化学模拟,去找到一些化合物的最后产品。在太空方面,量子计算能加速材料的新材料开发,也许让上天的飞行器的材料变得更好,比如用来研制太空电梯的绳索,或者以后的火箭可能连隔热瓦都不需要,用特殊的金属可以直接承担返回的高热。
所以量子计算可能会真的加速人类的太空梦,也难怪Sundar Pichai回复马斯克的推文时,还开玩笑地提到,要用星舰在太空中打造量子集群。
在完备的量子计算机出现之前,业界正在探索混合“量子+经典系统”的过渡方案。
以银行为例,它可以用自己的交易数据在混合系统上测试量子算法,为未来的全面转型做准备。
比如最近行情过山车的量子计算概念股。Rigetti、D-Wave Quantum、IonQ这一些企业在几个月之内一度翻好几倍,又在市场争议之际疯狂下跌。
就像电脑的普及经历了从科研军工到华尔街再到千家万户的过程,量子计算也会先在特定领域证明其价值,然后逐步渗透到更广泛的应用中。在这样的一个过程中,成本的下降和技术的成熟都需要一些时间。