1. 概念
对比学习(Contrastive Learning)是一种自监督学习 (Self-Supervised Learning)方法,其核心思想是通过相似样本靠近,不同样本远离 的方式学习数据的潜在表示。它广泛用于无标签数据的特征提取,特别是在计算机视觉、自然语言处理和图数据分析等任务中。
2. 主要思想
对比学习通过构造正样本对(Positive Pairs)和负样本对(Negative Pairs),然后在嵌入空间(Embedding Space)中优化样本表示,使正样本更接近,负样本更远离。
- 正样本对(Positive Pair):同一个样本的不同数据增强视图(View),或者语义相似的样本对。
- 负样本对(Negative Pair):来自不同类别的样本对,或随机采样的样本对。
3. 典型的对比损失函数
对比学习常使用对比损失函数(Contrastive Loss)来优化模型,使得相似样本的表示更加接近,不相似样本的表示更远。常见的损失函数包括:
(1)InfoNCE 损失(对比损失的典型形式)

- zi和 zi+ 是同一个样本的不同视图
- sim(zi,zj) 表示相似度计算(如余弦相似度)
- τ 是温度参数,用于控制分布的平滑度
- 分母包含所有正负样本,正样本分子部分占比越大,损失越小
(2)对比损失(Contrastive Loss)

- y=1代表负样本对,目标是让它们的欧氏距离 d 大于阈值 m
- y=0 代表正样本对,目标是让它们的欧氏距离 d 变小
4. 典型对比学习方法
(1)SimCLR(Simple Contrastive Learning of Representations)
- 通过数据增强生成不同视角的正样本
- 采用 InfoNCE 损失 进行优化
- 需要大量负样本来提升表示学习效果
(2)MoCo(Momentum Contrast)
- 采用动量编码器(Momentum Encoder),缓解负样本更新问题
- 通过一个 动态字典队列(Dynamic Dictionary Queue) 提供大量负样本,提高训练稳定性
(3)BYOL(Bootstrap Your Own Latent)
- 不使用负样本对,而是采用两个不同的编码器(一个目标网络、一个在线网络)
- 依赖动量更新,逐步逼近目标分布
(4)SWAV(Swapping Assignments between Views)
- 采用聚类的思想,不直接计算样本相似度,而是让不同视角的样本具有一致的聚类分配
5. 对比学习的应用
- 计算机视觉(CV):用于图像分类、目标检测、姿态估计等
- 自然语言处理(NLP):用于无监督文本表示学习,如句子嵌入
- 图神经网络(GNN):用于节点表征学习,如无标签的社交网络分析
- 多模态学习:如 CLIP(Contrastive Language-Image Pretraining),学习图像和文本的匹配关系
6. 未来发展
- 更高效的负样本采样策略,减少对大规模负样本的依赖
- 与监督学习结合,增强模型的泛化能力
- 跨模态对比学习,如文本-图像、图像-语音等多模态任务
对比学习作为一种无监督的特征学习方法,在多个领域表现出色,尤其在缺乏标注数据的情况下,可以有效提升模型的学习能力。