论文阅读--supervised learning with quantum enhanced feature spaces

简略摘要

量子算法实现计算加速的核心要素是通过可控纠缠和干涉利用指数级大的量子态空间。本文在超导处理器上提出并实验实现了两种量子算法。这两种方法的一个关键组成部分是使用量子态空间作为特征空间。只有在量子计算机上才能有效访问的量子增强特征空间的使用为量子优势提供了可能的途径。该算法解决了监督学习的一个问题:分类器的构造。其中一种方法是量子变分分类器,它使用变分量子电路1,2以一种类似于传统支持向量机方法的方式对数据进行分类。另一种方法是量子核估计器,在量子计算机上估计核函数并优化经典支持向量机。这两种方法为探索噪声中等规模量子计算机在机器学习中的应用提供了工具。

模型构建

图1量子核函数。a,单个量子比特的特征图表示。区间 Ω = (0, 2π] 中具有二进制标签(a,右)的经典数据集可以通过 b 中描述的非线性特征图映射到 Bloch 球面(红线和蓝线)上。对于单个量子比特 = UΦ Z (x),x 是角度 x ∈ Ω 的相位门。映射数据可以通过法线 w 给出的超平面分离。具有正期望值 w 的状态会获得 [+1](红色)标签,而负值则为对于一般电路,UΦ(x) 由计算基础中对角的单量子比特和双量子比特单元的乘积形成。在我们的实验中,训练数据和测试数据都是人工生成的,以便使用特征图进行完美分类。电路系列通过系数 φS(x) 非线性地依赖于数据,其中 ∣S∣ ≤ 2。c,使用 CNOT 和 Z 门对参数化对角单量子比特和双量子比特操作进行实验实现。

图 2 | 实验实施。a、五量子比特量子处理器示意图。实验是在图中突出显示的量子比特 Q0 和 Q1 上进行的。b、用于我们的优化方法的变分电路。两个顶部的量子比特描述了实施的电路。我们为变分幺正 W(θ) = U (θ ) U ...U (θ ) U U (θ ) l(olc) l ent l(o2c) 2 ent l(o1c) 1 16,17 选择一个共同的假设。我们交替使用纠缠门层 = ∏ ∈ U CZ(i, j) ij E ent ( , ) 和单量子比特旋转的完整层 θ = ⊗ = θ U ( ) U( ) l(otc) t in 1 i,t 和 U(θ ) ∈ SU(2) i,t 。**对于纠缠步骤,我们沿超导芯片的交互图 E 的边缘 (0, 1) 使用受控 Z 相位门 CZ(i, j)。灰色背景说明了扩展到更多量子比特的情况。c,电路用于直接估计数据 x 和 z 的一对特征向量之间的保真度,如我们的第二种方法所用。**Q0、Q1 上的电路描绘了实现的电路,而灰色背景说明了电路的一般结构。该电路由 Hadamard 门 H 组成,与由 φS(x) 参数化的对角单元 Uφ(x) 交错,以直接估计数据 x 和 z 的一对特征向量之间的保真度,如我们的第二种方法所用。

分类结果

图 3 | 方法收敛和分类结果。a,Spall 的 SPSA 算法经过 250 次迭代后,成本函数 R (θ) emp 收敛。红色(或黑色)曲线对应 l = 4(或 l = 0)。将零噪声外推获得的 pˆk 估计值的成本函数(实线)与未缓解估计值的成本函数(虚线)进行比较。我们每个深度训练三个数据集,并对每个训练集执行 20 次分类。c,分类结果显示为所有三个随机选择的单元的蓝色直方图(每个深度总共 60 个分类,每个标签每个分类 20 个数据点),平均值用黑点表示。误差线是平均值的标准误差。插图显示了使用 l = 4 分类器电路获得的一个每个标签 20 个点的测试集的测量标签 +1 概率的直方图,表明该集的分类成功率为 100%。

红色虚线显示了我们的直接核估计方法的结果,以供比较,其中集合 I 和 II 的成功率为 100%,集合 III 的成功率为 94.75%。b,本文中两种方法使用的示例数据。数据标签(红色表示 +1 标签,蓝色表示 -1 标签)的间隙为 Δ = 0.3(白色区域)。每个标签有 20 个点的训练集显示为白色和黑色圆圈。对于量子核估计方法,我们展示了支持向量(绿色圆圈)和分类测试集(白色和黑色方块)。三个点被错误分类,标记为 A、B 和 C。对于每个测试数据点 sj,我们在 b 的底部绘制 α ∑ y ∗K(x , s ) i j。点 A、B 和 C 均属于标签 +1,分别给出 α ∑ y ∗K(x, s)ij = −1.033、−0.367 和 −1.082。

图 4 | 集合 III 的核。a,实验(左)和理想(右)核矩阵,包含用于训练集合 III 的所有数据点的内积(图 3b 中的圆形符号)。与理想核 ∣K−Kˆ ∣ 的最大偏差出现在元素 K8,15 处。b 显示了第 8 行的切线(a 中的红色箭头表示),其中实验(或理想)结果显示为红色(或蓝色)条。我们注意到,当应用错误缓解技术时,核中接近于零的条目可能会变为负数(例如 b 中的 K8,30)。

方法

详细描述见参考文献1页面中的补充信息

我们考虑两种不同的学习方案。第一种称为"量子变分分类",第二种称为"量子核估计"。当考虑二元分类问题时,两种方案都在 n 个量子比特的状态空间中构建一个分离超平面,参见第 III B 节。第一种方案还能够在多标签设置中运行。从参考状态 | 0〉〈0 |n 开始,使用非线性依赖于数据的单元电路系列将经典数据映射到 dim = 4n 的空间。

具体内容包括:

对分类问题的描述

对量子变分问题的描述

量子核函数估计

SVM与变分量子分类器的关联

变分线路分类器

使用一个合适的特征映射编码数据

纠缠的非平凡特征映射

选择损失函数对于线路优化

二值标签分类

量子核估计

硬件装置参数

量子门特征

参考文献

1.Supervised learning with quantum-enhanced feature spaces | Nature

2.Vapnik, V. The Nature of Statistical Learning Theory (Springer Science & Business Media, 2013).

  1. Rebentrost, P., Mohseni, M. & Lloyd, S. Quantum support vector machine for big data classification. Phys. Rev. Lett. 113, 130503 (2014).

附录

1.Wolfe-Dual SVM 是支持向量机(SVM)优化问题的一种形式,通过将 SVM 的原始优化问题(称为 Primal Problem)转化为对偶问题(Dual Problem)来解决。这种转化利用了凸优化理论中的 Wolfe 对偶性

为什么对偶问题减少了变量的数量?

  • 对偶形式将变量从原始问题中的 www 和 bbb 转换为 α\alphaα,降低了变量的数量。
  • 特别是在数据维度 ddd 远大于样本数 NNN 的情况下(如高维稀疏数据),对偶形式更高效。

2.什么是软间隔支持向量机(Soft Margin SVM) ?松弛操作如何优化SVM

3。关于 张量网络为什么可以用于机器学习?

4.Karush-Kuhn-Tucker (KKT) 条件是什么 ?

相关推荐
七夜星七夜月3 小时前
时间序列预测论文阅读和相关代码库
论文阅读·python·深度学习
WenBoo-11 小时前
HIPT论文阅读
论文阅读
chnyi6_ya11 小时前
论文笔记:Buffer of Thoughts: Thought-Augmented Reasoning with Large Language Models
论文阅读·人工智能·语言模型
Jude_lennon1 天前
【论文笔记】结合:“integrate“ 和 “combine“等
论文阅读
LuH11241 天前
【论文阅读笔记】HunyuanVideo: A Systematic Framework For Large Video Generative Models
论文阅读·笔记
lalahappy1 天前
Swin transformer 论文阅读记录 & 代码分析
论文阅读·深度学习·transformer
开心星人1 天前
【论文阅读】Trigger Hunting with a Topological Prior for Trojan Detection
论文阅读
图学习的小张1 天前
论文笔记:是什么让多模态学习变得困难?
论文阅读·神经网络·机器学习
Maker~1 天前
28、论文阅读:基于像素分布重映射和多先验Retinex变分模型的水下图像增强
论文阅读·深度学习
minstbe2 天前
AI开发:支持向量机(SVM)鸢尾花模型入门教程- Python 机器学习
人工智能·机器学习·支持向量机