机器学习——互信息(超详细)

在机器学习中,Mutual Information(互信息) 是一种用于衡量两个变量之间相关性或依赖性 的统计量。它描述了一个变量中包含了多少关于另一个变量的信息 ,广泛用于特征选择、信息增益计算等任务。

一、互信息的定义

互信息(Mutual Information, MI)基于信息论,衡量随机变量 的信息共享程度:

其中:

:联合概率分布

:X的边缘分布

:Y的边缘分布

直观解释:

完全独立时,,此时

能完全决定 时,互信息越大

二、直观理解

互信息衡量"减少不确定性" :知道 的值后,能减少多少对 的不确定性?

它可以看作是熵(Entropy)的差值:

其中:

的熵(不确定性):

:已知 的条件熵(剩余不确定性):

如果 提供了很多信息,则条件熵会降低,互信息值就大。通俗来讲的话:就是 发生的概率减去在已知 发生时 发生的概率。

利用韦恩图表示为:

三、特征选择中的应用

在机器学习中,互信息常用于衡量特征与目标变量之间的关联度,尤其适合非线性关系。

示例:

假设要预测患者是否患病(: 0/1),并有以下特征:

  • 年龄(

  • 血压(

  • 邮编(

我们可以计算:

如果 ,说明邮编与疾病无关,可以舍弃。

如果 较大,则应保留。

四、与相关系数的区别

相关系数 (如皮尔逊相关):只衡量线性关系

互信息 :能捕捉任意关系(包括非线性),更通用。

例如:

的情况下,皮尔逊相关系数 ≈ 0(因为非线性),但互信息(存在强关系)。

五、在Python中计算互信息

Scikit-learn 提供了互信息计算工具:

python 复制代码
from sklearn.feature_selection import mutual_info_classif, mutual_info_regression
import pandas as pd
from sklearn.datasets import load_iris

# 以鸢尾花数据为例
data = load_iris()
X = pd.DataFrame(data.data, columns=data.feature_names)
y = data.target

# 分类问题使用 mutual_info_classif
mi_scores = mutual_info_classif(X, y)
print("互信息分数:", mi_scores)

输出的分数越高,说明该特征与目标变量关系越强。

相关推荐
chenzhiyuan20182 小时前
YOLO + OpenPLC + ARMxy:工业智能化视觉识别、边缘计算、工业控制的“三位一体”解决方案
人工智能·yolo·边缘计算
大千AI助手3 小时前
粒子群优化(PSO)算法详解:从鸟群行为到强大优化工具
人工智能·算法·优化算法·pso·粒子群优化
新手村领路人3 小时前
飞桨paddlepaddle旧版本2.4.2安装
人工智能·paddlepaddle
Elastic 中国社区官方博客3 小时前
带地图的 RAG:多模态 + 地理空间 在 Elasticsearch 中
大数据·人工智能·elasticsearch·搜索引擎·ai·语言模型·全文检索
云卓SKYDROID3 小时前
无人机云台电压类型及测量方法
人工智能·目标跟踪·无人机·高科技·航线系统
云雾J视界3 小时前
AI时代技术面试重构:谷歌如何用Vibe Coding与抗作弊革命重塑招聘
人工智能·google·面试·重构·谷歌·ai工具·技术面试
BFT白芙堂3 小时前
GRASP 实验室研究 论文解读 | 机器人交互:基于神经网络引导变分推理的快速失配估计
人工智能·神经网络·机器学习·mvc·人机交互·科研教育机器人·具身智能平台
深蓝学院3 小时前
智源研究院新研究:突破物理世界智能边界的RoboBrain 2.0,将重构具身AI能力天花板
人工智能·重构
做萤石二次开发的哈哈3 小时前
萤石安全生产监管解决方案:构建企业安全智能化防护网
大数据·人工智能
万米商云4 小时前
碎片化采购是座金矿:数字化正重构电子元器件分销的价值链
大数据·人工智能·电子元器件·供应链采购