迁移学习的第二类方法:特征选择

**Hi,大家好,我是半亩花海。**在上节说明了迁移学习的第一类方法:数据分布自适应之后,本文主要将介绍迁移学习的第二类方法------特征选择。该方法基于源域和目标域存在共享特征的假设,通过机器学习选择这些公共特征来构建模型。重点讲解了经典SCL方法及其核心概念Pivot feature(跨领域高频词),并列举了后续扩展研究如联合特征选择与子空间学习等方法。特征选择法通常与分布自适应方法结合,采用稀疏表示实现特征选择,为迁移学习提供了重要技术路径。

一、基本假设

特征选择法的基本假设是:源域和目标域中均含有一部分公共的特征,在这部分公共的特征上,源领域和目标领域的数据分布是一致的。因此,此类方法的目标就是,通过机器学习方法,选择出这部分共享的特征,即可依据这些特征构建模型。

下图形象地表示了特征选择法的主要思路。
特征选择法示意图

二、核心方法

这个领域比较经典的一个方法是发表在 2006 年的 ECML-PKDD 会议上,作者提出了一个叫做 SCL 的方法 (Structural Correspondence Learning) [Blitzer et al., 2006]。这个方法的目标就是我们说的,找到两个领域公共的那些特征。作者将这些公共的特征叫做 Pivot feature。找出来这些Pivot feature,就完成了迁移学习的任务。
特征选择法中的 Pivot feature 示意图

上图形象地展示了 Pivot feature 的含义。Pivot feature指的是在文本分类中,在不同领域中出现频次较高的那些词。

三、扩展

SCL 方法是特征选择方面的经典研究工作。基于 SCL,也出现了一些扩展工作。

  • Joint feature selection and subspace learning [Gu et al., 2011]:特征选择 + 子空间学习
  • TJM (Transfer Joint Matching) [Long et al., 2014b]: 在优化目标中同时进行边缘分布自适应和源域样本选择
  • FSSL (Feature Selection and Structure Preservation) [Li et al., 2016]: 特征选择 + 信息不变性

四、小结

  1. 特征选择法从源域和目标域中选择提取共享的特征,建立统一模型;
  2. 通常与分布自适应方法进行结合;
  3. 通常采用稀疏表示 实现特征选择。
相关推荐
Godspeed Zhao20 分钟前
自动驾驶中的传感器技术24.3——Camera(18)
人工智能·机器学习·自动驾驶
顾北122 小时前
MCP协议实战|Spring AI + 高德地图工具集成教程
人工智能
wfeqhfxz25887822 小时前
毒蝇伞品种识别与分类_Centernet模型优化实战
人工智能·分类·数据挖掘
中杯可乐多加冰2 小时前
RAG 深度实践系列(七):从“能用”到“好用”——RAG 系统优化与效果评估
人工智能·大模型·llm·大语言模型·rag·检索增强生成
珠海西格电力科技3 小时前
微电网系统架构设计:并网/孤岛双模式运行与控制策略
网络·人工智能·物联网·系统架构·云计算·智慧城市
FreeBuf_3 小时前
AI扩大攻击面,大国博弈引发安全新挑战
人工智能·安全·chatgpt
weisian1514 小时前
进阶篇-8-数学篇-7--特征值与特征向量:AI特征提取的核心逻辑
人工智能·pca·特征值·特征向量·降维
Java程序员 拥抱ai4 小时前
撰写「从0到1构建下一代游戏AI客服」系列技术博客的初衷
人工智能
186******205314 小时前
AI重构项目开发全流程:效率革命与实践指南
人工智能·重构
森之鸟4 小时前
多智能体系统开发入门:用鸿蒙实现设备间的AI协同决策
人工智能·harmonyos·m