【机器学习】机器学习的基本分类-半监督学习(Semi-supervised Learning)

半监督学习 是一种介于监督学习无监督学习之间的机器学习方法。它利用少量的标注数据(有监督数据)和大量的未标注数据(无监督数据)来进行模型训练,从而在标注数据不足的情况下,提升模型的性能。


半监督学习的特点

  1. 数据特性
    • 标注数据成本高(如需要人工标注)。
    • 未标注数据易得且数量庞大。
  2. 目标
    • 使用未标注数据改进监督学习模型的性能。
  3. 假设
    • 相似性假设(Cluster Assumption):相似的数据点有相同的类别。
    • 平滑性假设(Smoothness Assumption):靠近的样本具有相似的输出。
    • 流形假设(Manifold Assumption):数据点在低维流形上分布。

半监督学习的算法分类

1. 基于生成模型

使用生成模型捕捉数据分布,从而利用未标注数据。

典型方法:

  • 高斯混合模型(GMM)
  • 变分自编码器(VAE)
2. 自训练(Self-training)
  • 思路
    • 使用初始标注数据训练一个模型;
    • 让模型对未标注数据进行预测,将置信度高的预测结果作为伪标签;
    • 使用新增的伪标签更新模型。
  • 优点:简单易实现。
  • 缺点:伪标签错误会导致模型退化。
3. 协同训练(Co-training)
  • 思路
    • 使用两种互补的特征视角分别训练两个模型;
    • 每个模型生成伪标签并互相标注数据。
  • 典型应用:网页分类、信息检索。
4. 图半监督学习
  • 思路
    • 将数据建模为图结构,节点表示样本,边权重表示样本相似度;
    • 使用标签传播算法(Label Propagation)在图上传播标签。
  • 典型方法
    • 标签传播(Label Propagation)
    • 谱图方法(Graph Laplacian)
5. 对比学习
  • 思路
    • 在无监督情况下学习样本的特征表示,使相似样本在表示空间中更接近。
    • 然后结合标注数据进行分类或回归。
6. 一致性正则化(Consistency Regularization)
  • 思路
    • 假设模型在未标注数据上的预测应对输入的轻微扰动保持一致;
    • 对输入添加噪声或数据增强,约束模型输出的稳定性。
  • 典型方法:Pseudo-labeling,Mean Teacher。

常见半监督学习模型

1. Semi-supervised SVM(S^3VM)
  • 通过引入未标注数据的目标函数,增强决策边界的平滑性。
2. 半监督生成对抗网络(Semi-supervised GANs)
  • 使用生成对抗网络(GAN)生成数据并改进分类器性能。
3. Ladder Networks
  • 在网络中加入无监督分支,通过重构未标注数据,辅助训练。

半监督学习的损失函数

  1. 监督部分损失(有标注数据):

  2. 无监督部分损失(未标注数据):

    • 伪标签损失

    • 一致性正则化损失


      为添加扰动后的样本。

  3. 总损失


应用场景

  1. 自然语言处理(NLP)
    • 情感分析、文本分类。
  2. 计算机视觉
    • 图像分类、目标检测。
  3. 医学影像分析
    • 标注数据稀缺场景下的疾病诊断。
  4. 推荐系统
    • 利用未标注用户行为改进推荐质量。

Python 示例:自训练方法

以下是一个简单的自训练实现伪代码:

python 复制代码
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
import numpy as np

# 生成数据集
X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 模拟未标注数据
X_train_labeled, X_train_unlabeled, y_train_labeled, _ = train_test_split(X_train, y_train, test_size=0.7, random_state=42)

# 初始化模型
model = RandomForestClassifier()

# 训练初始模型
model.fit(X_train_labeled, y_train_labeled)

# 自训练过程
for _ in range(5):  # 多次迭代
    # 对未标注数据预测
    pseudo_labels = model.predict(X_train_unlabeled)
    pseudo_probs = model.predict_proba(X_train_unlabeled).max(axis=1)
    
    # 筛选高置信度样本
    high_confidence_idx = pseudo_probs > 0.9
    X_high_confidence = X_train_unlabeled[high_confidence_idx]
    y_high_confidence = pseudo_labels[high_confidence_idx]
    
    # 合并伪标签数据
    X_train_labeled = np.vstack((X_train_labeled, X_high_confidence))
    y_train_labeled = np.hstack((y_train_labeled, y_high_confidence))
    
    # 移除已标注的未标注数据
    X_train_unlabeled = X_train_unlabeled[~high_confidence_idx]
    
    # 重新训练模型
    model.fit(X_train_labeled, y_train_labeled)

# 测试模型
accuracy = model.score(X_test, y_test)
print(f"Accuracy: {accuracy:.2f}")

输出结果

Matlab 复制代码
Accuracy: 0.84

总结

半监督学习通过利用未标注数据的潜在信息,在标注数据有限的场景下显著提高了模型的性能。根据具体任务和数据特点,可以选择不同的半监督方法来优化模型效果。

相关推荐
linwq813 分钟前
OkHttp使用和源码分析学习(二)
学习·okhttp
肥肠可耐的西西公主17 分钟前
前端(AJAX)学习笔记(CLASS 2):图书管理案例以及图片上传
前端·笔记·学习
小白狮ww20 分钟前
国产超强开源大语言模型 DeepSeek-R1-70B 一键部署教程
人工智能·深度学习·机器学习·语言模型·自然语言处理·开源·deepseek
Sodas(填坑中....)1 小时前
SVM对偶问题
人工智能·机器学习·支持向量机·数据挖掘
maxruan1 小时前
自动驾驶之BEV概述
人工智能·机器学习·自动驾驶·bev
贩卖纯净水.2 小时前
REACT学习DAY02(恨连接不上服务器)
服务器·学习·react.js
南风过闲庭2 小时前
操作系统研究
大数据·人工智能·科技·学习·ai·系统架构
IT猿手3 小时前
2025最新智能优化算法:鲸鱼迁徙算法(Whale Migration Algorithm,WMA)求解23个经典函数测试集,MATLAB
android·数据库·人工智能·算法·机器学习·matlab·无人机
紫雾凌寒3 小时前
计算机视觉基础|卷积神经网络:从数学原理到可视化实战
人工智能·深度学习·神经网络·机器学习·计算机视觉·cnn·卷积神经网络
山海青风3 小时前
从零开始玩转TensorFlow:小明的机器学习故事 2
人工智能·机器学习·tensorflow