对比学习简介

1. 引言

在本教程中,我们将介绍对比学习领域中的相关概念。首先,我们将讨论这种技术背后相关的理论知识;接着,我们将介绍最常见的对比学习的损失函数和常见的训练策略。

闲话少说,我们直接开始吧!

2. 举个栗子

首先,让我们通过简单的例子来增加对对比学习概念的理解 。我们不妨来玩一个许多孩子经常玩的游戏:

这个游戏的目标是从右侧的候选图片中,寻找看起来最像左侧动物的图像。在我们的例子中,孩子必须在右边的四张图片中搜索一张狗的照片。一般来说,孩子们必须将右侧图像一一和左侧图像进行比较,然后从中选择与之最相近的作为结果。

事实证明,对于没有任何先验知识的人来说,比如一个孩子,更容易通过对比相似和不同物体来学习新事物,而不是通过一个接一个地学习识别它们。也许最开始,孩子们可能无法识别狗。但过一段时间后,孩子就学会了如何区分狗的共同特征,比如鼻子的形状和身体姿势。

3. 方法论

受先前观察的启发,对比学习旨在通过对比相似和不同的样本来学习数据的低维度特征表示。具体来说,它试图使相似的样本在特征表示空间中彼此靠近,并使用欧几里得距离将不相似的样本推得很远。

假设我们有三个图像I1I2I3。前两张图片描绘了一只狗,第三张图片描绘了一只猫,我们想学习每张图片的特征低维表示(x1x2x3):

在对比学习中,我们希望最小化相似样本之间的距离,并最大化不同样本之间的距离。在我们的示例中,我们希望最小化相似样本距离 d(x1,x2)并最大化不相似样本距离 d(x1,x3)d(x2,x3),其中 d()是类似于欧几里得的度量函数。

与锚定样本 I1 相似的样本被定义为正样本 I2,不同的样本被定义为负样本 I3

4. 损失函数

对比学习最重要的部分是训练目标,它引导模型学习对比特征表示。对比损失是用于对比学习的首要训练目标函数之一。它采用一对相似或不相似的样本作为输入,并使相似的样本在特征空间内更接近,不相似的样本在特征空间中距离更远。

更一般的来说,假设我们有一对 输入 (Ii,Ij)和一个标签 Y,如果这一对样本相似,则标签Y等于 0,否则等于 1。为了提取每个样本的低维表示,我们使用卷积神经网络 f,将输入 Ii Ij映射到特征嵌入空间中,其中 xi = f(Ii) xj = f(Ij)。对比损失函数的定义为:

其中, m是一个超参数,用于定义不同样本之间的下限距离。

如果我们需要更具体地分析上述等式,则有两种不同的情况:

● 如果样本相似 (Y=0),则我们最小化项为 ||x_i - x_j||^2 对应于它们的欧几里得距离。

● 如果样本不同 (Y=1),则我们最小化项 max(0, m - ||x_i - x_j||^2) 这相当于最大化它们的欧几里得距离,直到某个极限 m

5. 无监督学习

当我们没有太多标注的样本时,这里可以使用自监督学习,利用数据的某些属性来生成伪标签。

一个著名的无监督对比学习的框架是 SimCLR 。它的主要思想是通过在锚图像中应用随机转换(如裁剪、翻转和颜色抖动)来生成正样本图像对,因为这些更改使图像的标签保持不变:

6. 结论

在本教程中,我们讨论了对比学习的相关概念和理论知识。首先,我们介绍了对比学习相关术语的概念,然后我们讨论了对比学习的目标损失函数和相应的自监督训练策略。

相关推荐
多年小白2 小时前
AI 日报 - 2026年4月25日(周六)
网络·人工智能·科技·深度学习·ai
深度学习lover2 小时前
<数据集>yolo 垃圾识别<目标检测>
人工智能·深度学习·yolo·目标检测·计算机视觉·垃圾识别
LaughingZhu2 小时前
Product Hunt 每日热榜 | 2026-04-25
人工智能·经验分享·深度学习·神经网络·产品运营
AI木马人2 小时前
2.【多模型接入架构】如何同时接入GPT、Gemini、Claude并统一管理?(完整实现方案)
人工智能·gpt·深度学习·神经网络·自然语言处理
南宫惠泽2 小时前
深度学习章节:模型的选择与训练.交叉验证.测试集, 诊断偏差与方差,正则化与偏差方差,建立基准性能水平
人工智能·深度学习
金融小师妹3 小时前
AI多因子定价模型:美元强化与能源约束下 黄金反弹受限弹性解析
深度学习·svn·逻辑回归·能源
隔壁大炮3 小时前
Day02-04.张量点乘和矩阵乘法
人工智能·pytorch·深度学习·线性代数·算法·矩阵
机器学习之心4 小时前
GA-Transformer模型回归+SHAP分析+新数据预测+多输出!深度学习可解释分析(附MATLAB代码)
深度学习·回归·transformer
小鱼~~4 小时前
SGD简介
深度学习
隔壁大炮4 小时前
10.PyTorch_元素类型转换
人工智能·pytorch·深度学习·算法