对比学习简介

1. 引言

在本教程中,我们将介绍对比学习领域中的相关概念。首先,我们将讨论这种技术背后相关的理论知识;接着,我们将介绍最常见的对比学习的损失函数和常见的训练策略。

闲话少说,我们直接开始吧!

2. 举个栗子

首先,让我们通过简单的例子来增加对对比学习概念的理解 。我们不妨来玩一个许多孩子经常玩的游戏:

这个游戏的目标是从右侧的候选图片中,寻找看起来最像左侧动物的图像。在我们的例子中,孩子必须在右边的四张图片中搜索一张狗的照片。一般来说,孩子们必须将右侧图像一一和左侧图像进行比较,然后从中选择与之最相近的作为结果。

事实证明,对于没有任何先验知识的人来说,比如一个孩子,更容易通过对比相似和不同物体来学习新事物,而不是通过一个接一个地学习识别它们。也许最开始,孩子们可能无法识别狗。但过一段时间后,孩子就学会了如何区分狗的共同特征,比如鼻子的形状和身体姿势。

3. 方法论

受先前观察的启发,对比学习旨在通过对比相似和不同的样本来学习数据的低维度特征表示。具体来说,它试图使相似的样本在特征表示空间中彼此靠近,并使用欧几里得距离将不相似的样本推得很远。

假设我们有三个图像I1I2I3。前两张图片描绘了一只狗,第三张图片描绘了一只猫,我们想学习每张图片的特征低维表示(x1x2x3):

在对比学习中,我们希望最小化相似样本之间的距离,并最大化不同样本之间的距离。在我们的示例中,我们希望最小化相似样本距离 d(x1,x2)并最大化不相似样本距离 d(x1,x3)d(x2,x3),其中 d()是类似于欧几里得的度量函数。

与锚定样本 I1 相似的样本被定义为正样本 I2,不同的样本被定义为负样本 I3

4. 损失函数

对比学习最重要的部分是训练目标,它引导模型学习对比特征表示。对比损失是用于对比学习的首要训练目标函数之一。它采用一对相似或不相似的样本作为输入,并使相似的样本在特征空间内更接近,不相似的样本在特征空间中距离更远。

更一般的来说,假设我们有一对 输入 (Ii,Ij)和一个标签 Y,如果这一对样本相似,则标签Y等于 0,否则等于 1。为了提取每个样本的低维表示,我们使用卷积神经网络 f,将输入 Ii Ij映射到特征嵌入空间中,其中 xi = f(Ii) xj = f(Ij)。对比损失函数的定义为:

其中, m是一个超参数,用于定义不同样本之间的下限距离。

如果我们需要更具体地分析上述等式,则有两种不同的情况:

● 如果样本相似 (Y=0),则我们最小化项为 ||x_i - x_j||^2 对应于它们的欧几里得距离。

● 如果样本不同 (Y=1),则我们最小化项 max(0, m - ||x_i - x_j||^2) 这相当于最大化它们的欧几里得距离,直到某个极限 m

5. 无监督学习

当我们没有太多标注的样本时,这里可以使用自监督学习,利用数据的某些属性来生成伪标签。

一个著名的无监督对比学习的框架是 SimCLR 。它的主要思想是通过在锚图像中应用随机转换(如裁剪、翻转和颜色抖动)来生成正样本图像对,因为这些更改使图像的标签保持不变:

6. 结论

在本教程中,我们讨论了对比学习的相关概念和理论知识。首先,我们介绍了对比学习相关术语的概念,然后我们讨论了对比学习的目标损失函数和相应的自监督训练策略。

相关推荐
shayudiandian15 分钟前
用深度学习实现语音识别系统
人工智能·深度学习·语音识别
铅笔侠_小龙虾7 小时前
深度学习理论推导--梯度下降法
人工智能·深度学习
&&Citrus8 小时前
【杂谈】SNNU公共计算平台:深度学习服务器配置与远程开发指北
服务器·人工智能·vscode·深度学习·snnu
STLearner8 小时前
AI论文速读 | U-Cast:学习高维时间序列预测的层次结构
大数据·论文阅读·人工智能·深度学习·学习·机器学习·数据挖掘
黑客思维者10 小时前
LLM底层原理学习笔记:Adam优化器为何能征服巨型模型成为深度学习的“速度与稳定之王”
笔记·深度学习·学习·llm·adam优化器
LDG_AGI12 小时前
【推荐系统】深度学习训练框架(十):PyTorch Dataset—PyTorch数据基石
人工智能·pytorch·分布式·python·深度学习·机器学习
AI人工智能+13 小时前
表格识别技术:完整还原银行对账单表格结构、逻辑关系及视觉布局,大幅提升使处理速度提升
人工智能·深度学习·ocr·表格识别
胡乱编胡乱赢13 小时前
Decaf攻击:联邦学习中的数据分布分解攻击
人工智能·深度学习·机器学习·联邦学习·decaf攻击
远上寒山13 小时前
DINO 系列(v1/v2/v3)之二:DINOv2 原理的详细介绍
人工智能·深度学习·自监督·dinov2·自蒸馏·dino系列