CLIP改进

主要有以下两个工作:

【1】SigLIP:Sigmoid Loss for Language Image Pre-Training

【2】DFN:Data Filtering Networks

分别从算法和数据上进行优化

1.SigLIP:Sigmoid Loss for Language Image Pre-Training

SigLIP的核心方就是对CLIP的训练Loss进行了优化。

CLIP Loss

原本的CLIP采用的是传统的基于softmax的对比学习损失函数:

可以看到:

1,对于每一对正样本,即分子的,需要进行基于所有正负样本的softmax归一化,即分母

  1. 由于softmax的不对称性,上述归一化操作对于image-to-text和text-to-image要单独进行。

这意味着在DDP训练下,每个GPU都需要获取来自所有其他GPU的图像特征x和文本特征y,这涉及到两次all_gather操作。并且每个GPU都要维护一个完整的BXB的矩阵,这从通讯复杂度和存储复杂度角度看,都是一笔不小的开销。

SigLIP Loss

为此,SigLIP提出了一种更加简单的替代方案,基于Sigmoid损失单独处理每一个image-text pair:

SigLIP 高效分块实现

鉴于SigLIP的特性,他们还设计了一种DDP训练下的高效实现,假设一共有D个GPU,每个GPU的局部批次大小为,对上述Loss进行拆分改写:

以D=3, B=12, b=4为例,SigLIP Loss的计算过程如下:

可以发现,由于每一对 都是损失函数中的独立项 ,因此可以计算正例以及b-1个负例的损失,然后跨设备和相邻的GPU置换负例表示(仅需文本 ),并计算新的b-1个负例对应的损失,并逐渐将该损失进行累加就会得到该GPU对应的完整局部损失,然后把所有GPU的局部损失相加便可以得到完整的全局损失

该实现下,每个GPU仅需要和相邻GPU进行D-1次文本特征的交换,并且仅需维护一个d x d的矩阵即可,大大降低了通讯和存储开销

一些结论:

  • Sigmoid-based Loss对比Softmax-based Loss在批次大小不超过32k时具有明显优势

  • 批次大小超过32k之后继续提升批次大小收益提升并不明显

  • 过大的批次大小(307k)对于两个损失都有害(因为总训练步数的降低)

2.DFN:Data Filtering Networks

同样也是论文标题言简意赅地体现了核心工作:如何训练一个好的数据过滤网络(DFN),从而从原始数据池中过滤出高质量数据用以训练一个好的CLIP。这个没有太多好说的,简单讲一下吧。

使用CLIP作为DFN是一个常用方法,例如LAION就是利用OpenAI CLIP从 Common Crawl上过滤出的大规模image-text pair数据集。论文对DFN的过滤性能 进行了定义:用DFN从原始数据池中过滤出一个诱导数据集 (induced dataset),用该诱导数据集训练出的诱导模型(induced model)在标准评估集(例如ImageNet)上的性能,即为该模型的过滤性能,下图是DFN的训练和使用流程:

论文发现CLIP的性能(ImageNet zero-shot指标)和其过滤性能并不相关。基于此,他们进行了一系列关于训练一个好的DFN的实验,一些主要结论:

  • CLIP模型作为DFN比其他模型(二分类、MAE)更好且更灵活

  • 高质量的训练数据非常关键(使用了350M人工验证的image-text pair数据)

  • 在目标数据集上finetune DFN可以显著提升过滤性能

  • 仅依赖于少量开源数据(30M)也可以复现OpenAI CLIP(400M)作为DFN的过滤性能

相关推荐
飞哥数智坊4 分钟前
V4/R4 没来,但 DeepSeek-V3.2 好像又便宜又好用?
人工智能·deepseek
CareyWYR10 分钟前
AI:比我更懂我的旁观者
人工智能
搞科研的小刘选手40 分钟前
【高录用|快检索】第二届图像处理、多媒体技术与机器学习国际学术会议(IPMML 2025)
人工智能·机器学习·多媒体·学术会议
秋邱1 小时前
AI + 社区服务:智慧老年康养助手(轻量化落地方案)
人工智能·python·重构·ar·推荐算法·agi
leijiwen1 小时前
Bsin X BDCM:从流量驱动到价值激励驱动的智能增长引擎
大数据·人工智能·web3
人工智能训练1 小时前
Linux 系统核心快捷键表(可打印版)
linux·运维·服务器·人工智能·ubuntu·容器·openeuler
得贤招聘官1 小时前
AI 重构招聘:从效率到精准决策
人工智能·重构
高锰酸钾_1 小时前
机器学习基础 | KNN(K-近邻)
人工智能·机器学习
人邮异步社区1 小时前
想要系统地学习扩散模型,应该怎么去做?
人工智能·学习·程序员·扩散模型
1***y1781 小时前
区块链跨链桥、 跨链桥到底在解决什么问题?
大数据·人工智能·区块链