论文阅读--supervised learning with quantum enhanced feature spaces

简略摘要

量子算法实现计算加速的核心要素是通过可控纠缠和干涉利用指数级大的量子态空间。本文在超导处理器上提出并实验实现了两种量子算法。这两种方法的一个关键组成部分是使用量子态空间作为特征空间。只有在量子计算机上才能有效访问的量子增强特征空间的使用为量子优势提供了可能的途径。该算法解决了监督学习的一个问题:分类器的构造。其中一种方法是量子变分分类器,它使用变分量子电路1,2以一种类似于传统支持向量机方法的方式对数据进行分类。另一种方法是量子核估计器,在量子计算机上估计核函数并优化经典支持向量机。这两种方法为探索噪声中等规模量子计算机在机器学习中的应用提供了工具。

模型构建

图1量子核函数。a,单个量子比特的特征图表示。区间 Ω = (0, 2π] 中具有二进制标签(a,右)的经典数据集可以通过 b 中描述的非线性特征图映射到 Bloch 球面(红线和蓝线)上。对于单个量子比特 = UΦ Z (x),x 是角度 x ∈ Ω 的相位门。映射数据可以通过法线 w 给出的超平面分离。具有正期望值 w 的状态会获得 [+1](红色)标签,而负值则为对于一般电路,UΦ(x) 由计算基础中对角的单量子比特和双量子比特单元的乘积形成。在我们的实验中,训练数据和测试数据都是人工生成的,以便使用特征图进行完美分类。电路系列通过系数 φS(x) 非线性地依赖于数据,其中 ∣S∣ ≤ 2。c,使用 CNOT 和 Z 门对参数化对角单量子比特和双量子比特操作进行实验实现。

图 2 | 实验实施。a、五量子比特量子处理器示意图。实验是在图中突出显示的量子比特 Q0 和 Q1 上进行的。b、用于我们的优化方法的变分电路。两个顶部的量子比特描述了实施的电路。我们为变分幺正 W(θ) = U (θ ) U ...U (θ ) U U (θ ) l(olc) l ent l(o2c) 2 ent l(o1c) 1 16,17 选择一个共同的假设。我们交替使用纠缠门层 = ∏ ∈ U CZ(i, j) ij E ent ( , ) 和单量子比特旋转的完整层 θ = ⊗ = θ U ( ) U( ) l(otc) t in 1 i,t 和 U(θ ) ∈ SU(2) i,t 。**对于纠缠步骤,我们沿超导芯片的交互图 E 的边缘 (0, 1) 使用受控 Z 相位门 CZ(i, j)。灰色背景说明了扩展到更多量子比特的情况。c,电路用于直接估计数据 x 和 z 的一对特征向量之间的保真度,如我们的第二种方法所用。**Q0、Q1 上的电路描绘了实现的电路,而灰色背景说明了电路的一般结构。该电路由 Hadamard 门 H 组成,与由 φS(x) 参数化的对角单元 Uφ(x) 交错,以直接估计数据 x 和 z 的一对特征向量之间的保真度,如我们的第二种方法所用。

分类结果

图 3 | 方法收敛和分类结果。a,Spall 的 SPSA 算法经过 250 次迭代后,成本函数 R (θ) emp 收敛。红色(或黑色)曲线对应 l = 4(或 l = 0)。将零噪声外推获得的 pˆk 估计值的成本函数(实线)与未缓解估计值的成本函数(虚线)进行比较。我们每个深度训练三个数据集,并对每个训练集执行 20 次分类。c,分类结果显示为所有三个随机选择的单元的蓝色直方图(每个深度总共 60 个分类,每个标签每个分类 20 个数据点),平均值用黑点表示。误差线是平均值的标准误差。插图显示了使用 l = 4 分类器电路获得的一个每个标签 20 个点的测试集的测量标签 +1 概率的直方图,表明该集的分类成功率为 100%。

红色虚线显示了我们的直接核估计方法的结果,以供比较,其中集合 I 和 II 的成功率为 100%,集合 III 的成功率为 94.75%。b,本文中两种方法使用的示例数据。数据标签(红色表示 +1 标签,蓝色表示 -1 标签)的间隙为 Δ = 0.3(白色区域)。每个标签有 20 个点的训练集显示为白色和黑色圆圈。对于量子核估计方法,我们展示了支持向量(绿色圆圈)和分类测试集(白色和黑色方块)。三个点被错误分类,标记为 A、B 和 C。对于每个测试数据点 sj,我们在 b 的底部绘制 α ∑ y ∗K(x , s ) i j。点 A、B 和 C 均属于标签 +1,分别给出 α ∑ y ∗K(x, s)ij = −1.033、−0.367 和 −1.082。

图 4 | 集合 III 的核。a,实验(左)和理想(右)核矩阵,包含用于训练集合 III 的所有数据点的内积(图 3b 中的圆形符号)。与理想核 ∣K−Kˆ ∣ 的最大偏差出现在元素 K8,15 处。b 显示了第 8 行的切线(a 中的红色箭头表示),其中实验(或理想)结果显示为红色(或蓝色)条。我们注意到,当应用错误缓解技术时,核中接近于零的条目可能会变为负数(例如 b 中的 K8,30)。

方法

详细描述见参考文献1页面中的补充信息

我们考虑两种不同的学习方案。第一种称为"量子变分分类",第二种称为"量子核估计"。当考虑二元分类问题时,两种方案都在 n 个量子比特的状态空间中构建一个分离超平面,参见第 III B 节。第一种方案还能够在多标签设置中运行。从参考状态 | 0〉〈0 |n 开始,使用非线性依赖于数据的单元电路系列将经典数据映射到 dim = 4n 的空间。

具体内容包括:

对分类问题的描述

对量子变分问题的描述

量子核函数估计

SVM与变分量子分类器的关联

变分线路分类器

使用一个合适的特征映射编码数据

纠缠的非平凡特征映射

选择损失函数对于线路优化

二值标签分类

量子核估计

硬件装置参数

量子门特征

参考文献

1.Supervised learning with quantum-enhanced feature spaces | Nature

2.Vapnik, V. The Nature of Statistical Learning Theory (Springer Science & Business Media, 2013).

  1. Rebentrost, P., Mohseni, M. & Lloyd, S. Quantum support vector machine for big data classification. Phys. Rev. Lett. 113, 130503 (2014).

附录

1.Wolfe-Dual SVM 是支持向量机(SVM)优化问题的一种形式,通过将 SVM 的原始优化问题(称为 Primal Problem)转化为对偶问题(Dual Problem)来解决。这种转化利用了凸优化理论中的 Wolfe 对偶性

为什么对偶问题减少了变量的数量?

  • 对偶形式将变量从原始问题中的 www 和 bbb 转换为 α\alphaα,降低了变量的数量。
  • 特别是在数据维度 ddd 远大于样本数 NNN 的情况下(如高维稀疏数据),对偶形式更高效。

2.什么是软间隔支持向量机(Soft Margin SVM) ?松弛操作如何优化SVM

3。关于 张量网络为什么可以用于机器学习?

4.Karush-Kuhn-Tucker (KKT) 条件是什么 ?

相关推荐
小嗷犬1 小时前
【论文笔记】LoRA: Low-Rank Adaptation of Large Language Models
论文阅读·人工智能·语言模型·自然语言处理·大模型·微调
AI智界先锋1 小时前
融合创新:CNN+LSTM在深度学习中的高效应用,助力科研发表高影响因子文章!
论文阅读·深度学习·cnn+lstm·cnn与lstm融合
小嗷犬2 小时前
【论文笔记】SCOPE: Sign Language Contextual Processing with Embedding from LLMs
论文阅读·大模型·机器翻译·多模态·手语翻译
PD我是你的真爱粉2 小时前
Fundamental Analysis and Mean-Variance Optimal Portfolios论文阅读
论文阅读
小嗷犬5 小时前
【论文笔记】LLaMA-VID: An Image is Worth 2 Tokens in Large Language Models
论文阅读·人工智能·语言模型·大模型·llama
万里守约13 小时前
【论文阅读】利用SEM二维图像表征黏土矿物三维结构
论文阅读·图像处理·深度学习·三维重构
Jeffrey_oWang1 天前
软间隔支持向量机支持向量的情况以及点的各种情况
算法·机器学习·支持向量机
学不会lostfound1 天前
一、机器学习算法与实践_07支持向量机与集成学习算法笔记
随机森林·机器学习·支持向量机·集成学习·xgboost·lightgbm
小嗷犬1 天前
【论文笔记】Towards Privacy-Aware Sign Language Translation at Scale
论文阅读