人工智能+量子计算:飞跃现实边界还是科技幻想?

人工智能+量子计算,这是一种可能改变世界的伙伴关系。

在科技的前沿,两大革命性技术------人工智能(AI)和量子计算------正站在合作的十字路口。人工智能,以其强大的数据分析能力和模式识别,正在改变着我们生活和工作的方式;而量子计算,以其远超于经典计算机的计算速度和处理复杂问题的能力,预示着计算能力的飞跃。如果将这两种技术的力量优势结合起来,我们会拥有一个可能彻底改变我们对问题解决、决策制定乃至现实世界理解的新时代。它是更加智能与高效的。

不过,AI与量子计算合作虽然有着巨大潜力,但如何在科研探索与实际应用中推进两者的联合仍然是一个巨大的挑战。科学家们在这方面的研究一直在推进。

2024年5月20日,奥地利因斯布鲁克大学的研究人员公布了一种在给定量子计算机上准备量子操作的新方法,使用AI机器学习生成模型来找到执行量子操作的适当量子门序列。这项研究最近发表在Nature machine intelligence(自然机器智能)上。

**最新研究:

人工智能赋能量子计算机编程**

量子计算作为一种新兴技术,已经展现出其颠覆现有计算模式的潜力。它能够处理传统计算机难以解决的复杂问题,为科学研究和技术创新开辟了新的可能性。但要实现量子计算的承诺,我们必须解决一个关键挑战:如何高效地将抽象的量子算法转化为实际可行的物理量子比特操作。

为了应对这一挑战,因斯布鲁克大学的研究人员开始探索一种新型的解决方案------利用生成人工智能机器学习模型,特别是去噪扩散模型(DM) **,来辅助量子操作的物理实现。**去噪扩散模型是一种强大的生成模型,它通过逐步引入噪声并在训练过程中去除噪声来学习数据的分布。在量子计算的背景下,这意味着DM可以学习量子电路的构建方式,并生成符合特定条件的量子操作。

与传统的量子电路设计方法相比,**使用DM具有显著的优势。**首先,DM可以在训练时避免模拟量子系统的指数级复杂度,这在以往的机器学习方法中是一个难以克服的瓶颈。其次,DM的生成过程可以受到文本条件的引导,这意味着研究人员可以通过指定一些条件来指导模型生成所需的量子电路。

研究人员已经在两个关键任务上验证了DM的有效性:纠缠生成和单元编译。纠缠是量子计算中的核心资源,而单元编译则是将高级量子操作转化为具体量子门序列的过程。DM在这两个任务上表现出色,证明了其在量子电路设计中的潜力。

此外,DM还支持多种扩展技术,如屏蔽和编辑。这些技术可以进一步优化生成的量子电路,使其满足特定量子设备的设计约束。例如,通过屏蔽技术,可以防止量子电路中不希望发生的相互作用;通过编辑技术,可以对量子电路进行微调,以适应特定应用的需求。

图1 | 量子电路生成流水线概要。a,量子电路编码在一个三维张量中,每个门都编码为一定长度的连续向量(垂直方向),在这里用颜色(上平面)示意性表示。b,创建扩散模型的条件(c)。文本被转换为连续表示(ct)通过预先训练的CLIP编码器实现。在其他情况中,例如酉编译,与DM一起训练一个编码器来创建输入酉的编码(cu)。c、d,扩散模型(c)的训练和(d)从训练模型进行后验推断的示意图。

总之,去噪扩散模型在量子电路合成中展现出了巨大的潜力。它们不仅能够提高量子计算的实际应用能力,还能够为理论量子计算的研究提供新的视角和工具。随着量子计算技术的不断进步,我们有理由相信,DM将成为推动量子计算发展的关键力量之一。

"这提供了巨大的优势",GorkaMuñoz-Gil解释道,他与HansJ.Briegel和FlorianFürrutter一起开发了这种新颖的方法。

"我们表明去噪扩散模型的生成是准确的,而且非常灵活,允许生成具有不同数量的量子位以及量子门的类型和数量的电路。 "这些模型还可以进行定制,以准备考虑量子硬件连接性的电路,即量子位在量子计算机中的连接方式。GorkaMuñoz-Gil指出了新方法的另一个潜力:"一旦模型经过训练,生产新电路的成本就非常低,因此人们可以用它来发现有关感兴趣的量子运算的新见解"。

因斯布鲁克大学开发的方法根据用户规范生产量子电路,并根据电路运行的量子硬件的特性进行定制,**这标志着在全面释放量子计算方面向前迈出了重要一步。**该工作得到了奥地利科学基金FWF和欧盟等机构的资助。

值得注意的是,人工智能与量子计算是双向成就的。由此次实验以及科学家的研究表明,人工智能可赋能量子计算机编程。而量子编程也允许人工智能更快、更高效地处理大量数据,从而增强人工智能。它促进实时决策、更快的处理速度和高性能计算能力,这些能力随着大数据和复杂人工智能系统的增长变得越来越重要。

此外,量子计算还可以通过同时探索多个解决方案来帮助解决机器学习算法中常见的优化问题,从而在更短的时间内找到最佳解决方案。量子算法,如量子近似优化算法(QAOA)和量子版支持向量机(QSVM),已经用于解决此类优化问题。

不过尽管具有潜力,但人工智能的量子编程仍面临挑战。因为人工智能技术虽然相对成熟,但量子计算机仍处于萌芽阶段,量子比特有限,并且很容易受到环境噪声的影响,尤其是降低噪音方面仍然有很大的上升空间。因此,这还需要科学家们对量子计算与人工智能联合进一步的研究。

探索与质疑:
量子机器学习的潜力有多大?

科学家们的研究不止于此,为了探索人工智能+量子计算的巨大潜力,全世界研究人员和技术人员都在努力。2024年1月,英国《自然》杂志网站在报道中指出,科学家正在探索这个未来计算联盟的潜力,也试图洞悉其将在多大程度上改变或者重塑科学的面貌。欧洲核子研究中心(CERN)的科学家是量子机器学习领域的先驱者

量子机器学习结合了量子计算和AI技术,旨在利用量子计算提供的优势来解决传统机器学习中的难题。量子计算通过利用量子态叠加和纠缠的特性,在大规模数据处理和模型训练方面具有潜在的优势,有望加速机器学习的发展。

他们已使用机器学习寻找大型强子对撞机生成的数据中的某些亚原子粒子的"蛛丝马迹"。CERN量子计算和机器学习研究小组负责人、物理学家索菲亚·瓦莱科萨表示,他们希望使用量子计算机来加快或改进经典机器学习模型。

值得注意的是,科学家对于量子机器的研究主要是试图回答一个大问题:在某些情况下,量子机器学习是否比经典机器学习更具优势?

理论表明,对于模拟分子或寻找大整数的素数等任务,量子计算机可提升计算速度。但研究人员仍然缺乏足够证据,证明机器学习也能如此。不过,有些科学家指出,**即使无法提升运算速度,量子机器学习也可发现经典计算机遗漏的某些模式。**还有一些研究人员则重点关注将量子机器学习算法应用于某些量子现象。

美国麻省理工学院物理学家阿拉姆·哈鞣表示,在量子机器学习的所有拟议应用中,这是"具有相当明显量子优势的领域"。

不过,也有计算机科学家如唐乙文认为,对于任何有关量子算法可加速机器学习的说法,她秉持"非常怀疑"的态度。2018年,18岁的计算机科学家唐乙文发明了一个新的可在传统计算机上运行并完成计算的推荐算法。这种算法与之前的推荐算法相比,实现了指数级加速,并击败了2016年设计的一种量子机器学习算法。

不过,运算速度并非是评判量子算法优劣的唯一标准。有迹象表明,由机器学习驱动的量子人工智能系统可学会识别出数据中的模式,而经典的人工智能系统会错过这些模式。德国电子同步加速器研究所(DESY)粒子物理实验室的卡尔·詹森解释称,这可能是因为量子纠缠在量子比特之间,从而让数据之间建立了关联,而经典算法很难检测出这些关联。

那么,如何让量子机器学习更好发挥作用? 科学家目前想到的解决办法是:对处于量子状态的数据使用量子机器学习算法,可避开将经典数据转化为量子态这一过程。

科学家将这些量子态直接加载到量子计算机的量子比特上,然后使用量子机器学习来发现模式,而无需与经典系统产生交集。

麻省理工学院物理学家在谷歌Sycamore量子计算机上对此进行了原理验证实验。他们用一些量子比特模拟一种抽象材料的行为,处理器的另一部分随后从这些量子比特中获取信息,并使用量子机器学习对其进行分析。研究发现,这项技术测量和分析数据的速度比传统方法快很多。

研究人员指出,充分收集和分析量子数据,可使物理学家解决经典测量只能间接回答的问题。如某种材料是否处于特定的量子态,从而使其成为超导体。

詹森指出,粒子物理学家也在研究使用量子传感器处理未来粒子对撞机产生的数据。相距遥远的天文台也可使用量子传感器收集数据,并通过未来的"量子互联网"传输到中央实验室,在量子计算机上进行处理。

如果这种量子传感应用被证明是成功的,那么量子机器学习就可在这些实验的测量结果,以及分析由此产生的量子数据方面发挥作用。

除了科学家,企业家们也没有忽视量子计算机提供机器学习和人工智能的自然延伸,他们现在正忙于学习利用技术组合的方法。2020年,C-DAC(印度高级计算发展中心)和Atos(法国跨国IT服务咨询公司)签署的一项协议,这两家公司正在研究量子计算与人工智能之间的匹配。

除此之外,IBM、谷歌和微软等公司已经在这个革命性领域取得了进展,提供基于云的量子计算服务,并不断开发人工智能的量子算法。

2024年5月15日,IBM宣布将开源量子软件开发套件(SDK)Qiskit扩展至整个软件开发栈。

这次更新汇集了IBM为构建量子线路的所有工具,包括Qiskit SDK v1.x的稳定版本、由AI加持并内嵌在Qiskit转译服务中的量子线路优化、简化的Qiskit运行时服务、由生成式人工智能加持的Qiskit代码助手以及Qiskit无服务器开源工具。此举令开发人员能够更好地为研究和企业应用的量子处理器构建实用的解决方案。

总之,尽管有针对人工智能+量子计算的种种质疑,但是 科学家们可以确定量子计算会在很大程度上改变人工智能并带来积极影响,反之也是如此。例如,西班牙银行控股公司BBVA的分析师指出,量子计算和人工智能之间的天然协同作用是量子机器学习最终优于经典机器学习的原因。

与BBVA新数字业务领域合作的量子算法研究员SamuelFernándezLorenzo表示:"量子机器学习可以比传统机器学习更高效,至少对于某些本质上难以使用传统计算机学习的模型来说是这样。""我们仍然需要弄清楚这些模型在实际应用中出现的程度如何。"

科学家们认为随着量子计算和AI的合作不断深入,量子AI将探索利用量子计算能力和AI算法相结合的应用,如优化量子算法、构建量子神经网络等,推动AI技术在更广泛领域的应用

同时,随着量子计算机计算能力的增强,传统加密算法将面临破解的风险,而量子密码学作为一种新的加密方式将得到更多的关注和应用。量子计算与AI的合作也有望在数据隐私保护和安全通信等领域发挥重要作用。

除此之外,量子计算与AI的合作将推动科学和技术的突破。从材料科学到药物研发,从天体物理学到量子化学,量子计算和AI的结合将在各个领域带来新的认识和发现。

量子计算+人工智能的未来在哪里?

可以确定,尽管有质疑,但是量子计算+人工智能的潜力是巨大的。

只有利用人工智能的力量,才能实现实用的量子加速超级计算为科学家、政府和企业提供的价值。这一点越来越明确,并推动人工智能与量子专家之间的更大合作。

用于量子开发的有效人工智能需要新的工具来促进多学科协作,对每个量子计算任务进行高度优化,并充分利用量子加速超级计算基础设施中可用的混合计算能力。

NVIDIA于2024年5月12日表示,他们正 在开发硬件和软件工具,以实现人工智能在量子加速超级计算所需的规模上实现量子化。

图片来源:Medium

总之,量子计算与AI的合作代表了未来科技发展的新方向和机遇。它们相互促进,通过提供更强大的计算能力、优化算法和解决复杂问题等方面的合作,将为人类带来更快速、更智能的科技创新。

不过,量子计算还是一个新领域,人工智能虽然很大可能推进该领域的发展,然而,实用量子计算的道路是漫长且充满挑战的。量子计算机可能还需要一段时间才能变得更强大并准备好在人工智能中广泛使用。在那之前,重点可能是最大限度地发挥现有人工智能工具的功能,同时继续探索量子计算提供的令人兴奋的可能性。

未来,我们期待看到量子计算与AI的紧密合作在各个领域取得更多的突破和进展,并为人类社会带来福祉。

参考链接

[1]http://m.stdaily.com/index/kejixinwen/202401/4d1ba8c5d38543f3bde309690e1410ed.shtml

[2]https://www.nature.com/articles/s42256-024-00831-9

[3]https://nachrichten.idw-online.de/2024/05/21/how-ai-helps-programming-a-quantum-computer

[4]https://developer.nvidia.com/zh-cn/blog/enabling-quantum-computing-with-ai/

[5]https://www.captechu.edu/blog/supercharging-ai-quantum-computing-look-future

相关推荐
YRr YRr6 分钟前
深度学习:循环神经网络(RNN)详解
人工智能·rnn·深度学习
sp_fyf_202418 分钟前
计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-11-01
人工智能·深度学习·神经网络·算法·机器学习·语言模型·数据挖掘
多吃轻食22 分钟前
大模型微调技术 --> 脉络
人工智能·深度学习·神经网络·自然语言处理·embedding
白光白光37 分钟前
贝尔不等式的验证
量子计算·贝尔不等式·贝尔不等式违反
北京搜维尔科技有限公司1 小时前
搜维尔科技:【应用】Xsens在荷兰车辆管理局人体工程学评估中的应用
人工智能·安全
说私域1 小时前
基于开源 AI 智能名片 S2B2C 商城小程序的视频号交易小程序优化研究
人工智能·小程序·零售
YRr YRr1 小时前
深度学习:Transformer Decoder详解
人工智能·深度学习·transformer
知来者逆1 小时前
研究大语言模型在心理保健智能顾问的有效性和挑战
人工智能·神经网络·机器学习·语言模型·自然语言处理
云起无垠1 小时前
技术分享 | 大语言模型赋能软件测试:开启智能软件安全新时代
人工智能·安全·语言模型
老艾的AI世界2 小时前
新一代AI换脸更自然,DeepLiveCam下载介绍(可直播)
图像处理·人工智能·深度学习·神经网络·目标检测·机器学习·ai换脸·视频换脸·直播换脸·图片换脸