正则化机制提升部分标签学习中的消歧策略

正则化机制提升部分标签学习中的消歧策略

在部分标签学习(Partial Label Learning, PLL)中,基于平均的消歧策略 通过平等对待候选标签进行建模,但需要增强标签的互斥性(即确保真实标签的唯一性)。本文介绍两种优化机制:流形假设双凸正则化,以提升模型性能。


1. 基于流形假设的增强方法

1.1 核心思想

利用数据的局部相似性,通过约束邻近样本标签预测的平滑性,间接增强标签互斥性。

1.2 数学建模

  • 相似性矩阵

    定义样本间相似性矩阵 W ∈ R N × N W \in \mathbb{R}^{N \times N} W∈RN×N,其中元素为:
    W i j = exp ⁡ ( − ∥ x i − x j ∥ 2 2 σ 2 ) W_{ij} = \exp\left(-\frac{\|x_i - x_j\|^2}{2\sigma^2}\right) Wij=exp(−2σ2∥xi−xj∥2)

  • 图拉普拉斯矩阵
    L = D − W L = D - W L=D−W,其中 D D D 为对角矩阵, D i i = ∑ j W i j D_{ii} = \sum_j W_{ij} Dii=∑jWij。

  • 流形正则项
    R manifold ( θ ) = tr ( F ⊤ L F ) , F = [ f ( x 1 ; θ ) , ... , f ( x N ; θ ) ] ⊤ \mathcal{R}_{\text{manifold}}(\theta) = \text{tr}(F^\top L F), \quad F = [f(x_1; \theta), \dots, f(x_N; \theta)]^\top Rmanifold(θ)=tr(F⊤LF),F=[f(x1;θ),...,f(xN;θ)]⊤

  • 总目标函数
    min ⁡ θ 1 N ∑ i = 1 N 1 ∣ S i ∣ ∑ y ∈ S i ℓ ( f ( x i ; θ ) , y ) + λ ⋅ tr ( F ⊤ L F ) \min_\theta \frac{1}{N} \sum_{i=1}^N \frac{1}{|S_i|} \sum_{y \in S_i} \ell(f(x_i; \theta), y) + \lambda \cdot \text{tr}(F^\top L F) θminN1i=1∑N∣Si∣1y∈Si∑ℓ(f(xi;θ),y)+λ⋅tr(F⊤LF)

    其中,第一项为平均损失,第二项为流形正则项。

1.3 作用机制

  • 约束相邻样本的标签分布相似性。
  • 当真实标签唯一时,模型倾向于为每个样本分配单一高置信度标签。

2. 基于双凸正则化的增强方法

2.1 核心思想

通过交替优化模型参数 θ \theta θ 和标签权重 w w w,利用稀疏性约束直接增强标签互斥性。

2.2 数学建模

  • 标签权重变量

    权重向量 w i ∈ R K w_i \in \mathbb{R}^K wi∈RK 满足:
    ∑ y ∈ S i w i , y = 1 , w i , y ≥ 0 ( ∀ y ∈ S i ) \sum_{y \in S_i} w_{i,y} = 1, \quad w_{i,y} \geq 0 \ (\forall y \in S_i) y∈Si∑wi,y=1,wi,y≥0 (∀y∈Si)

  • 双凸目标函数
    min ⁡ θ , w 1 N ∑ i = 1 N ∑ y ∈ S i w i , y ℓ ( f ( x i ; θ ) , y ) + λ ∑ i = 1 N ∥ w i ∥ 1 \min_{\theta, w} \frac{1}{N} \sum_{i=1}^N \sum_{y \in S_i} w_{i,y} \ell(f(x_i; \theta), y) + \lambda \sum_{i=1}^N \|w_i\|_1 θ,wminN1i=1∑Ny∈Si∑wi,yℓ(f(xi;θ),y)+λi=1∑N∥wi∥1

    其中,第一项为加权损失,第二项为稀疏正则项。

  • 交替优化步骤

    1. 固定 w w w,优化 θ \theta θ
      θ t + 1 = arg ⁡ min ⁡ θ 1 N ∑ i = 1 N ∑ y ∈ S i w i , y ℓ ( f ( x i ; θ ) , y ) \theta_{t+1} = \arg\min_\theta \frac{1}{N} \sum_{i=1}^N \sum_{y \in S_i} w_{i,y} \ell(f(x_i; \theta), y) θt+1=argθminN1i=1∑Ny∈Si∑wi,yℓ(f(xi;θ),y)
    2. 固定 θ \theta θ,优化 w w w
      w i , y ( t + 1 ) = { 1 if y = arg ⁡ max ⁡ y ′ ∈ S i f y ′ ( x i ; θ t ) 0 otherwise w_{i,y}^{(t+1)} = \begin{cases} 1 & \text{if } y = \arg\max_{y' \in S_i} f_{y'}(x_i; \theta_t) \\ 0 & \text{otherwise} \end{cases} wi,y(t+1)={10if y=argmaxy′∈Sify′(xi;θt)otherwise

2.3 作用机制

  • 稀疏正则项使 w i w_i wi 趋向独热向量。
  • 显式识别真实标签,抑制其他候选标签。

3. 方法对比

方法 优点 缺点
流形假设 无需显式标签权重,适合复杂噪声场景 依赖特征质量,计算复杂度高
双凸正则化 显式增强互斥性,适合多候选标签场景 需多次迭代,优化过程复杂

4. 实例:PP-PLL 算法

4.1 初始化

设置初始权重 w i , y = 1 ∣ S i ∣ w_{i,y} = \frac{1}{|S_i|} wi,y=∣Si∣1。

4.2 迭代优化

  • 步骤 1 :固定 w w w,训练模型参数 θ \theta θ。
  • 步骤 2 :固定 θ \theta θ,更新 w i w_i wi 为置信度最高的标签。

4.3 输出

最终得到优化后的模型 θ \theta θ 和稀疏权重 w w w。


5. 核心公式总结

  1. 流形正则化目标函数
    min ⁡ θ 1 N ∑ i = 1 N 1 ∣ S i ∣ ∑ y ∈ S i ℓ ( f ( x i ; θ ) , y ) + λ ⋅ tr ( F ⊤ L F ) \min_\theta \frac{1}{N} \sum_{i=1}^N \frac{1}{|S_i|} \sum_{y \in S_i} \ell(f(x_i; \theta), y) + \lambda \cdot \text{tr}(F^\top L F) θminN1i=1∑N∣Si∣1y∈Si∑ℓ(f(xi;θ),y)+λ⋅tr(F⊤LF)

  2. 双凸正则化目标函数
    min ⁡ θ , w 1 N ∑ i = 1 N ∑ y ∈ S i w i , y ℓ ( f ( x i ; θ ) , y ) + λ ∑ i = 1 N ∥ w i ∥ 1 \min_{\theta, w} \frac{1}{N} \sum_{i=1}^N \sum_{y \in S_i} w_{i,y} \ell(f(x_i; \theta), y) + \lambda \sum_{i=1}^N \|w_i\|_1 θ,wminN1i=1∑Ny∈Si∑wi,yℓ(f(xi;θ),y)+λi=1∑N∥wi∥1


相关推荐
Luis Li 的猫猫9 分钟前
支持向量机SVM的MATLAB分类预测实现
人工智能·机器学习·支持向量机·matlab·分类
月亮被咬碎成星星10 分钟前
LeetCode[59]螺旋矩阵Ⅱ
算法·leetcode
冠位观测者16 分钟前
【Leetcode 每日一题】1963. 使字符串平衡的最小交换次数
数据结构·算法·leetcode
丶213618 分钟前
【AI】使用Python实现机器学习小项目教程
人工智能·python·机器学习
liruiqiang0522 分钟前
卷积神经网络 - 从全连接到卷积
人工智能·深度学习·神经网络·机器学习·cnn
weixi_kelaile52026 分钟前
智能电话机器人的技术原理是什么?AI语音机器人评判标准是什么?
运维·服务器·人工智能·机器人·语音识别
幸好我会魔法28 分钟前
常见限流算法及实现
java·开发语言·算法
cainiaojunshi31 分钟前
学习笔记 ASP.NET Core Web API 8.0部署到iis
笔记·学习·asp.net
风吹斜刘海1 小时前
yolov5项目增加注意力机制
人工智能
飞奔的马里奥1 小时前
力扣Hot100——136. 只出现一次的数字
算法·leetcode·职场和发展