对比学习训练是如何进行的

对比学习(Contrastive Learning)是一种自监督学习的方法,旨在通过拉近相似样本的表示、拉远不相似样本的表示来学习特征表示。在训练过程中,模型并不依赖标签,而是通过样本之间的相似性进行学习。以下是对比学习的基本原理和具体的训练流程:

1. 基本原理

对比学习的核心目标是通过构造正样本对(相似样本)和负样本对(不相似样本),让模型学习到对相似样本的特征表示更接近,而对不相似样本的特征表示更远。常用的对比学习方法有 SimCLR、MoCo 等。

  • 正样本对:指的是经过不同增强方式得到的同一图像的不同视角,或在一些情况下是语义上相关的图像对。
  • 负样本对:指的是不同图像对,它们在语义上或像素空间上不相关。

2. 对比学习的训练流程

以MoCo为例:

其中momentum encoder是动量编码器,将encoder中的k的参数更新过程使用动量公式来约束,在MoCo中,作者将m设置为0.99(即momentum encoder中k的参数除了刚开始赋值给他,encoder不进行反向传播更新,往后全靠自己更新),这样就可以使得k的参数更新更依赖于之前k的参数了。

步骤1:样本增强

  • 对每个输入样本(例如图像),通过数据增强(如随机裁剪、旋转、颜色扰动等)生成多个视图。每个样本经过增强后形成一个正样本对,即该样本的两个不同增强版本。

步骤2:特征提取

  • 将增强后的样本输入到神经网络(如卷积神经网络或 Transformer)中,提取它们的特征表示。特征提取器通常不带标签地训练,模型在这个过程中学习到数据的潜在结构。

步骤3:相似性度量

  • 对每个样本对,计算它们的特征表示之间的相似度。通常使用余弦相似度(Cosine Similarity)来衡量特征向量之间的相似性。

    • 对于正样本对(相同样本的不同视图),希望它们的特征表示尽量接近,即相似度高。
    • 对于负样本对(不同样本),希望它们的特征表示尽量远,即相似度低。

步骤4:损失函数

  • 对比学习常用的损失函数是对比损失(Contrastive Loss)NCE(Noise Contrastive Estimation)损失 ,其中最常用的是 InfoNCE 损失。该损失函数通过极大化正样本对的相似性,极小化负样本对的相似性来优化模型。

    InfoNCE 损失函数的公式如下:

    在反向传播过程中,L分别对q和k中的权重w微分来进行参数更新,使得权重作用于与q相似性高的k

    后的loss更低

步骤5:优化与更新

  • 利用梯度下降算法最小化对比损失,从而更新网络参数,使模型能够学到更好的特征表示。

3. 监督对比学习

在有标签的情况下,可以利用标签信息来构造更加有效的正负样本对。**监督对比学习(Supervised Contrastive Learning)**通过使用相同类别的样本作为正样本对,不同类别的样本作为负样本对,这种方式可以进一步提升模型的分类性能。具体步骤如下:

  1. 构建正样本对:对于每个样本,选择与其类别相同的其他样本作为正样本,而非只依赖数据增强生成正样本对。
  2. 构建负样本对:选择不同类别的样本作为负样本。

通过引入监督信息,监督对比学习可以更加有效地对齐同类别样本的特征表示,从而提升模型的泛化能力。

这种方式确保了模型能够更好地利用语言模式中的信息,增强对跨领域数据的泛化能力。相当于对正样本对最大化,负样本对最小化来使模型对于同类别的样本有着更好的辨识能力;在一些E2D的模型中,可以保留或冻结编码器部分当作预训练编码器,然后进行下游任务。

相关推荐
鑫宝Code1 分钟前
【机器学习】目标分类算法概述
人工智能·机器学习·分类
凌云行者1 小时前
机器学习(1)——线性回归、线性分类与梯度下降
机器学习·分类·线性回归
凯子坚持 c1 小时前
【机器学习】---元强化学习
人工智能·python·机器学习
洋葱蚯蚓1 小时前
深入理解人工智能:从机器学习到深度学习
人工智能·深度学习·机器学习
Yasen.M1 小时前
manim中实现文字换行和设置字体格式
开发语言·python·机器学习·动画·pip·pyvista
南山忆8742 小时前
Docker入门指南:快速学习Docker的基本操作
学习·docker·微服务
AI知识分享官2 小时前
大模型增量训练--基于transformer制作一个大模型聊天机器人
人工智能·深度学习·算法·数据挖掘·langchain·机器人·transformer
jsnjs2 小时前
MapReduce学习与理解
大数据·学习·mapreduce
地球空间-技术小鱼2 小时前
学习单片机编程和硬件设计步骤
单片机·嵌入式硬件·学习