正则化机制提升部分标签学习中的消歧策略

正则化机制提升部分标签学习中的消歧策略

在部分标签学习(Partial Label Learning, PLL)中,基于平均的消歧策略 通过平等对待候选标签进行建模,但需要增强标签的互斥性(即确保真实标签的唯一性)。本文介绍两种优化机制:流形假设双凸正则化,以提升模型性能。


1. 基于流形假设的增强方法

1.1 核心思想

利用数据的局部相似性,通过约束邻近样本标签预测的平滑性,间接增强标签互斥性。

1.2 数学建模

  • 相似性矩阵

    定义样本间相似性矩阵 W ∈ R N × N W \in \mathbb{R}^{N \times N} W∈RN×N,其中元素为:
    W i j = exp ⁡ ( − ∥ x i − x j ∥ 2 2 σ 2 ) W_{ij} = \exp\left(-\frac{\|x_i - x_j\|^2}{2\sigma^2}\right) Wij=exp(−2σ2∥xi−xj∥2)

  • 图拉普拉斯矩阵
    L = D − W L = D - W L=D−W,其中 D D D 为对角矩阵, D i i = ∑ j W i j D_{ii} = \sum_j W_{ij} Dii=∑jWij。

  • 流形正则项
    R manifold ( θ ) = tr ( F ⊤ L F ) , F = [ f ( x 1 ; θ ) , ... , f ( x N ; θ ) ] ⊤ \mathcal{R}_{\text{manifold}}(\theta) = \text{tr}(F^\top L F), \quad F = [f(x_1; \theta), \dots, f(x_N; \theta)]^\top Rmanifold(θ)=tr(F⊤LF),F=[f(x1;θ),...,f(xN;θ)]⊤

  • 总目标函数
    min ⁡ θ 1 N ∑ i = 1 N 1 ∣ S i ∣ ∑ y ∈ S i ℓ ( f ( x i ; θ ) , y ) + λ ⋅ tr ( F ⊤ L F ) \min_\theta \frac{1}{N} \sum_{i=1}^N \frac{1}{|S_i|} \sum_{y \in S_i} \ell(f(x_i; \theta), y) + \lambda \cdot \text{tr}(F^\top L F) θminN1i=1∑N∣Si∣1y∈Si∑ℓ(f(xi;θ),y)+λ⋅tr(F⊤LF)

    其中,第一项为平均损失,第二项为流形正则项。

1.3 作用机制

  • 约束相邻样本的标签分布相似性。
  • 当真实标签唯一时,模型倾向于为每个样本分配单一高置信度标签。

2. 基于双凸正则化的增强方法

2.1 核心思想

通过交替优化模型参数 θ \theta θ 和标签权重 w w w,利用稀疏性约束直接增强标签互斥性。

2.2 数学建模

  • 标签权重变量

    权重向量 w i ∈ R K w_i \in \mathbb{R}^K wi∈RK 满足:
    ∑ y ∈ S i w i , y = 1 , w i , y ≥ 0 ( ∀ y ∈ S i ) \sum_{y \in S_i} w_{i,y} = 1, \quad w_{i,y} \geq 0 \ (\forall y \in S_i) y∈Si∑wi,y=1,wi,y≥0 (∀y∈Si)

  • 双凸目标函数
    min ⁡ θ , w 1 N ∑ i = 1 N ∑ y ∈ S i w i , y ℓ ( f ( x i ; θ ) , y ) + λ ∑ i = 1 N ∥ w i ∥ 1 \min_{\theta, w} \frac{1}{N} \sum_{i=1}^N \sum_{y \in S_i} w_{i,y} \ell(f(x_i; \theta), y) + \lambda \sum_{i=1}^N \|w_i\|_1 θ,wminN1i=1∑Ny∈Si∑wi,yℓ(f(xi;θ),y)+λi=1∑N∥wi∥1

    其中,第一项为加权损失,第二项为稀疏正则项。

  • 交替优化步骤

    1. 固定 w w w,优化 θ \theta θ
      θ t + 1 = arg ⁡ min ⁡ θ 1 N ∑ i = 1 N ∑ y ∈ S i w i , y ℓ ( f ( x i ; θ ) , y ) \theta_{t+1} = \arg\min_\theta \frac{1}{N} \sum_{i=1}^N \sum_{y \in S_i} w_{i,y} \ell(f(x_i; \theta), y) θt+1=argθminN1i=1∑Ny∈Si∑wi,yℓ(f(xi;θ),y)
    2. 固定 θ \theta θ,优化 w w w
      w i , y ( t + 1 ) = { 1 if y = arg ⁡ max ⁡ y ′ ∈ S i f y ′ ( x i ; θ t ) 0 otherwise w_{i,y}^{(t+1)} = \begin{cases} 1 & \text{if } y = \arg\max_{y' \in S_i} f_{y'}(x_i; \theta_t) \\ 0 & \text{otherwise} \end{cases} wi,y(t+1)={10if y=argmaxy′∈Sify′(xi;θt)otherwise

2.3 作用机制

  • 稀疏正则项使 w i w_i wi 趋向独热向量。
  • 显式识别真实标签,抑制其他候选标签。

3. 方法对比

方法 优点 缺点
流形假设 无需显式标签权重,适合复杂噪声场景 依赖特征质量,计算复杂度高
双凸正则化 显式增强互斥性,适合多候选标签场景 需多次迭代,优化过程复杂

4. 实例:PP-PLL 算法

4.1 初始化

设置初始权重 w i , y = 1 ∣ S i ∣ w_{i,y} = \frac{1}{|S_i|} wi,y=∣Si∣1。

4.2 迭代优化

  • 步骤 1 :固定 w w w,训练模型参数 θ \theta θ。
  • 步骤 2 :固定 θ \theta θ,更新 w i w_i wi 为置信度最高的标签。

4.3 输出

最终得到优化后的模型 θ \theta θ 和稀疏权重 w w w。


5. 核心公式总结

  1. 流形正则化目标函数
    min ⁡ θ 1 N ∑ i = 1 N 1 ∣ S i ∣ ∑ y ∈ S i ℓ ( f ( x i ; θ ) , y ) + λ ⋅ tr ( F ⊤ L F ) \min_\theta \frac{1}{N} \sum_{i=1}^N \frac{1}{|S_i|} \sum_{y \in S_i} \ell(f(x_i; \theta), y) + \lambda \cdot \text{tr}(F^\top L F) θminN1i=1∑N∣Si∣1y∈Si∑ℓ(f(xi;θ),y)+λ⋅tr(F⊤LF)

  2. 双凸正则化目标函数
    min ⁡ θ , w 1 N ∑ i = 1 N ∑ y ∈ S i w i , y ℓ ( f ( x i ; θ ) , y ) + λ ∑ i = 1 N ∥ w i ∥ 1 \min_{\theta, w} \frac{1}{N} \sum_{i=1}^N \sum_{y \in S_i} w_{i,y} \ell(f(x_i; \theta), y) + \lambda \sum_{i=1}^N \|w_i\|_1 θ,wminN1i=1∑Ny∈Si∑wi,yℓ(f(xi;θ),y)+λi=1∑N∥wi∥1


相关推荐
老胖闲聊1 小时前
Python Copilot【代码辅助工具】 简介
开发语言·python·copilot
Blossom.1181 小时前
使用Python和Scikit-Learn实现机器学习模型调优
开发语言·人工智能·python·深度学习·目标检测·机器学习·scikit-learn
曹勖之1 小时前
基于ROS2,撰写python脚本,根据给定的舵-桨动力学模型实现动力学更新
开发语言·python·机器人·ros2
DFminer2 小时前
【LLM】fast-api 流式生成测试
人工智能·机器人
lyaihao2 小时前
使用python实现奔跑的线条效果
python·绘图
恰薯条的屑海鸥2 小时前
零基础在实践中学习网络安全-皮卡丘靶场(第十六期-SSRF模块)
数据库·学习·安全·web安全·渗透测试·网络安全学习
郄堃Deep Traffic2 小时前
机器学习+城市规划第十四期:利用半参数地理加权回归来实现区域带宽不同的规划任务
人工智能·机器学习·回归·城市规划
int型码农3 小时前
数据结构第八章(一) 插入排序
c语言·数据结构·算法·排序算法·希尔排序
UFIT3 小时前
NoSQL之redis哨兵
java·前端·算法
喜欢吃燃面3 小时前
C++刷题:日期模拟(1)
c++·学习·算法