量子版“长短时记忆”来了?连续变量光学储层计算登《Nature Photonics》

当经典神经网络还在为处理时间序列数据而消耗巨量算力时,一种全新的量子机器学习范式------量子储层计算------正在悄然崛起。近日,一支国际研究团队在《Nature Photonics》上发表了一项突破性成果,首次在连续变量光学系统中,为量子计算机装上了可控的"记忆"模块,使其能够高效处理时间序列任务,准确率高达95.9%。

想象一下,你正在训练一个模型来预测明天的天气。仅仅知道今天的温度是不够的,模型必须"记住"过去几天的温度、湿度、气压变化趋势,才能做出准确判断。这种对"记忆"的需求,是所有时间序列预测任务的核心。

经典计算机中的循环神经网络(RNN)和长短期记忆网络(LSTM)正是为此而生。但它们训练复杂、能耗高。而一种被称为储层计算的范式,通过使用一个固定的、复杂的物理系统作为"储层",仅训练一个简单的输出层,极大地简化了训练过程。

现在,科学家们将这一概念推向了量子领域。由法国、西班牙等国科学家组成的团队(论文通讯作者:Iris Paparelle 和 Valentina Parigi)提出并实验验证了一种连续变量光学量子储层计算(CV-QRC) 平台,其核心亮点在于:首次实现了具有可控记忆功能的在线时间学习


01 核心资源:多模纠缠的"光量子网络"

要理解这项工作的精妙之处,首先得看看他们所用的"储层"是什么。

团队的核心资源是一个通过参量下转换(PDC)过程产生的多模压缩态光场。简单来说,一个高能光子(泵浦光)在非线性晶体中分裂成两个低能光子(信号光和闲置光)。通过对泵浦光的脉冲进行精确的"塑形"(例如调制其相位),可以产生多达40个相互纠缠的"超模"。

这些超模构成了一个复杂的量子网络。网络中的每个节点都是一个光模式,它们之间的关联(即量子纠缠)可以通过调节泵浦光来重新配置。这为信息处理提供了一个高度灵活且可扩展的物理平台。

论文中的图1清晰地展示了实验方案:图a展示了量子储层的运行机制------输入信号与上一时刻的观测结果结合,通过反馈控制泵浦光,进而影响量子态与量子关联;图b则是详细的实验装置图,展示了如何通过电光调制器(EOM)编码信息,并通过零差探测(HD)读取结果。


02 记忆如何实现?实时反馈是关键

传统量子机器学习模型在处理时间序列时面临一个根本性难题:量子态在测量后通常会发生坍缩,丢失历史信息。为了解决这个问题,研究团队引入了一个关键机制------实时反馈

他们的方案如下:在每个时间步,系统的泵浦相位(用于编码信息)不仅取决于当前的输入信号 s_k,还取决于上一个时间步的测量结果 O^(k-1)。这就形成了一个闭环:

  1. 编码:将当前输入信号和上一个"记忆"(测量结果)融合,共同调制泵浦光的相位。

  2. 演化:新的泵浦光进入非线性晶体,产生受控的、携带着历史信息的多模纠缠态。

  3. 读取 :通过模式选择的零差探测,测量该量子态的正交分量,提取出用于计算的新观测值 O^(k)

  4. 训练 :仅通过线性回归训练输出层的权重矩阵 w,将观测值映射到目标输出 y_k

通过这种方式,量子系统的状态不再是孤立地处理单个输入,而是成为了输入序列历史的函数,形成了所谓的**"衰减记忆"**(fading memory)。


03 实验验证:从简单逻辑到混沌预测

为了验证该平台的能力,团队设计了一系列从简单到复杂的基准测试,所有实验结果均由一个高保真度的"数字孪生"模型进行验证。

任务一:XOR(异或)逻辑------非线性与短期记忆的试金石

XOR任务要求系统根据当前输入和上一个输入给出输出 y_k = s_k ⊕ s_{k-1}。这是一个经典的非线性问题,需要记忆上一个输入。

实验结果令人振奋:通过训练,量子储层在测试集上达到了95.9%的准确率。更重要的是,即使在模拟噪声的影响下,系统仍能保持稳定性能。这表明,仅用一个简单的全局相位编码(N=1)和单模测量(n=1),系统就已具备处理基本非线性时序任务的能力。

论文中的图3a展示了目标输出(蓝色)与量子储层预测输出(橙色)的高度重合,直观证明了系统对非线性逻辑运算和短期记忆的有效学习。

任务二:线性记忆任务------刻画"记忆容量"

这项任务要求系统重现τ步之前的输入值(y_k = s_{k-τ}),以此来量化系统的记忆长度和容量。

结果显示,随着延迟τ的增加,系统的"记忆容量"呈现典型的衰减趋势。这表明系统具备经典储层计算中理想的"衰减记忆"特性。此外,团队通过空间复用(同时使用多个独立的量子储层)有效提升了系统处理复杂任务的能力。

任务三:双螺旋混沌系统预测------终极挑战

在完成了基础任务后,团队利用其"数字孪生"模型挑战了更复杂的任务:预测双螺旋混沌电路(Double-scroll)和洛伦兹系统的未来状态。

结果令人满意。即使加入了实验噪声,该系统在训练规模较小(不到400步)的情况下,预测容量仍能轻松超过85%。这充分证明了该平台在实际应用场景中的潜力。


04 超越经典:多模纠缠态的"红利"

这项研究的最大亮点在于揭示了量子资源本身的优势。

当团队使用**全局相位编码(N=1)**时,无论测量多少模式(n>1),系统提供的可观测信息都非常有限,表达性(expressivity)很差。这就像用一把尺子去测量一个多维空间,无论如何也测不全。

然而,当他们采用一般编码(N>1) ,即对泵浦光的光谱进行更精细的相位塑形时,情况发生了根本性变化。通过同时调控N=5个不同的泵浦相位,并测量n=6个输出模式,系统提供的可观测信息量呈现多项式增长,其规模达到n(n+1)/2。这意味着,每一个观测值都携带着独特且不冗余的信息。

论文中的图4c和4d清晰地展示了这一优势:图4c显示,当编码足够丰富时(N>1),系统的表达性随测量模式数n呈多项式增长,远超单相位编码(N=1)时的饱和状态;图4d则通过关联矩阵对比,直观展示了N=1时观测值高度相关(颜色单一),而N=5时观测值之间展现出丰富且多样的关联结构。

这一结果首次在实验上证实了理论预测:利用量子系统的多模纠缠结构,可以获得超越经典复用策略的性能提升。这意味着,不再需要堆砌大量物理系统,而是可以"压榨"单个量子系统内在的复杂性,以更少的资源实现更强大的计算能力。


05 总结与展望:量子优势的曙光

这项研究成功搭建了一座连接"量子物理"与"实用机器学习"的桥梁。它不仅实验验证了带记忆的连续变量量子储层计算,更重要的是,它揭示了一条清晰的路径:

  1. 平台优势:全光学的、室温运行的连续变量系统,天然具备高带宽、可扩展的优势。

  2. 记忆机制:反馈控制为量子系统赋予了处理时间序列的关键能力。

  3. 量子红利:多模纠缠态不仅没有成为障碍,反而成为提升信息处理能力的核心资源。

当然,论文也坦诚地指出了当前系统的局限性(如-0.45dB的压缩度偏低)和面临的挑战(如如何定义和实现真正的量子优势)。但团队也给出了明确的未来方向:引入非高斯资源(如光子数分辨探测、薛定谔猫态等),有望突破当前基于高斯态的"多项式"优势,向指数级量子优势迈进。

正如论文第一作者Iris Paparelle所言:"我们的工作展示了一种可扩展的、基于确定性量子态生成的在线学习方案。它为未来将量子优势应用于现实世界的复杂时间序列分析,如金融预测、气候建模、生物信号处理等,奠定了基础。"

当量子计算机学会了"记住"过去,它们或许才能真正开始"预见"未来。

相关推荐
科研实践课堂(小绿书)13 天前
【Light: Science & Applications】从毫米到纳米:MIT“内爆制造”再进化,精准控制折射率,造出3D光子准晶体
光学·毫米波·智能光子学·光子晶体
禁默14 天前
光学与机器视觉:解锁“机器之眼”的核心密码-《第五届光学与机器视觉国际学术会议(ICOMV 2026)》
人工智能·计算机视觉·光学
科研实践课堂(小绿书)15 天前
大规模集成相干焦平面阵列4D成像传感器技术详解——Pointcloud团队Nature论文深度解读
传感器·光学·4d
AEIC学术交流中心18 天前
【快速EI检索 | SPIE出版】第五届光学与机器视觉国际学术会议(ICOMV 2026)
光学
m0_6855350821 天前
‌汽车灯具光学设计规范详解
华为·光学·光学设计·光学工程·镜头设计
翟天保Steven2 个月前
基于AIA改进的移相干涉抗振算法
c++·图像处理·光学·移相干涉技术
m0_685535082 个月前
华为光学工程师面试题汇总
华为·光学·光学设计·光学工程·镜头设计
m0_685535082 个月前
家用扫地机器人结构光
华为·光学·光学设计·光学工程·镜头设计
搞科研的小刘选手2 个月前
【双一流高校主办】第五届光学与机器视觉国际学术会议(ICOMV 2026)
人工智能·计算机视觉·机器视觉·光学·学术会议·控制工程·先进算法