机器学习——决策树特征选择准则

机器学习------决策树特征选择准则

决策树是一种强大的机器学习模型,它可以用于分类和回归任务。决策树通过树状结构对数据进行分类,每个内部节点表示一个特征,每个叶节点表示一个类别或一个数值。在决策树构建的过程中,特征的选择准则起着至关重要的作用。本篇博客将介绍决策树模型以及常用的特征选择准则,包括熵和条件熵、信息增益、信息增益比和基尼指数,并通过Python代码实现。

1. 决策树模型

决策树是一种基于树状结构进行决策的模型,它通过一系列的特征测试将数据集分割成不同的子集,直到数据集中的所有样本都属于同一个类别或达到预定义的停止条件为止。决策树有两种类型:分类树和回归树。在分类树中,叶节点表示类别标签;而在回归树中,叶节点表示数值。

2. 特征选择准则

2.1 熵和条件熵

熵是表示随机变量不确定性的度量,定义为:

H ( X ) = − ∑ i = 1 n p ( x i ) log ⁡ p ( x i ) H(X) = -\sum_{i=1}^{n} p(x_i) \log p(x_i) H(X)=−i=1∑np(xi)logp(xi)

其中, p ( x i ) p(x_i) p(xi)是随机变量 X X X取值为 x i x_i xi的概率。

条件熵是在已知随机变量 Y Y Y的条件下,随机变量 X X X的不确定性,定义为:

H ( X ∣ Y ) = − ∑ i = 1 n ∑ j = 1 m p ( x i , y j ) log ⁡ p ( x i ∣ y j ) H(X|Y) = -\sum_{i=1}^{n} \sum_{j=1}^{m} p(x_i, y_j) \log p(x_i|y_j) H(X∣Y)=−i=1∑nj=1∑mp(xi,yj)logp(xi∣yj)

其中, p ( x i , y j ) p(x_i, y_j) p(xi,yj)是 X X X取值为 x i x_i xi且 Y Y Y取值为 y j y_j yj的联合概率, p ( x i ∣ y j ) p(x_i|y_j) p(xi∣yj)是在已知 Y Y Y的条件下, X X X取值为 x i x_i xi的条件概率。

2.2 信息增益

信息增益是特征选择准则中常用的指标,表示在已知某个特征的条件下,对数据集分类的不确定性减少的程度。信息增益越大,说明特征对分类的贡献越大。信息增益的计算公式为:

Gain ( D , A ) = H ( D ) − H ( D ∣ A ) \text{Gain}(D, A) = H(D) - H(D|A) Gain(D,A)=H(D)−H(D∣A)

其中, D D D是数据集, A A A是某个特征, H ( D ) H(D) H(D)是数据集 D D D的熵, H ( D ∣ A ) H(D|A) H(D∣A)是在已知特征 A A A的条件下,数据集 D D D的条件熵。

2.3 信息增益比

信息增益比是信息增益与特征自身熵的比值,用于解决信息增益偏向选择取值较多的特征的问题。信息增益比的计算公式为:

Gain_ratio ( D , A ) = Gain ( D , A ) H A ( D ) \text{Gain\_ratio}(D, A) = \frac{\text{Gain}(D, A)}{H_A(D)} Gain_ratio(D,A)=HA(D)Gain(D,A)

其中, H A ( D ) H_A(D) HA(D)是特征 A A A的熵。

2.4 基尼指数

基尼指数是衡量数据集纯度的指标,定义为数据集中随机抽取两个样本,类别不一致的概率。基尼指数越小,数据集的纯度越高。基尼指数的计算公式为:

G i n i ( D ) = ∑ k = 1 ∣ Y ∣ p k ( 1 − p k ) Gini(D) = \sum_{k=1}^{|\mathcal{Y}|} p_k (1 - p_k) Gini(D)=k=1∑∣Y∣pk(1−pk)

其中, ∣ Y ∣ |\mathcal{Y}| ∣Y∣是类别的个数, p k p_k pk是数据集 D D D中属于类别 k k k的样本的比例。

3. Python实现

接下来,让我们通过Python代码实现一个简单的决策树模型,并使用信息增益作为特征选择准则。我们将使用DecisionTreeClassifier类来构建决策树,并在西瓜数据集上进行分类。

python 复制代码
from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier, plot_tree
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
import matplotlib.pyplot as plt

# 加载西瓜数据集
iris = load_iris()
X, y = iris.data, iris.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 构建决策树模型
clf = DecisionTreeClassifier(criterion='entropy', random_state=42)
clf.fit(X_train, y_train)

# 在测试集上进行预测
y_pred = clf.predict(X_test)

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)

# 绘制决策树可视化图形
plt.figure(figsize=(12, 8))
plot_tree(clf, filled=True, feature_names=iris.feature_names, class_names=iris.target_names)
plt.show()

运行以上代码,将得到决策树模型在测试集上的准确率。在这个例子中,我们使用了iris数据集,采用信息增益作为特征选择准则。

结论

本篇博客介绍了决策树模型以及常用的特征选择准则,包括熵和条件熵、信息增益、信息增益比和基尼指数。这些特征选择准则在决策树的构建过程中起着关键作用,帮助选择最优的特征来进行节点的分裂,从而提高模型的分类性能。

在Python实现部分,我们使用DecisionTreeClassifier类构建了一个简单的决策树模型,并在iris数据集上进行了分类实验。通过实验结果,我们可以看到决策树模型在测试集上达到了较高的准确率,这表明特征选择准则的选择对模型的性能具有重要影响。

总的来说,决策树模型是一种简单且有效的机器学习模型,特征选择准则的选择对决策树的构建和分类性能具有重要影响。在实际应用中,我们需要根据具体问题的特点和数据集的情况来选择合适的特征选择准则,以获得更好的分类结果。

相关推荐
KevinRay_3 分钟前
Python超能力:高级技巧让你的代码飞起来
网络·人工智能·python·lambda表达式·列表推导式·python高级技巧
跃跃欲试-迪之8 分钟前
animatediff 模型网盘分享
人工智能·stable diffusion
Captain823Jack34 分钟前
nlp新词发现——浅析 TF·IDF
人工智能·python·深度学习·神经网络·算法·自然语言处理
被制作时长两年半的个人练习生34 分钟前
【AscendC】ReduceSum中指定workLocal大小时如何计算
人工智能·算子开发·ascendc
Captain823Jack1 小时前
w04_nlp大模型训练·中文分词
人工智能·python·深度学习·神经网络·算法·自然语言处理·中文分词
Black_mario1 小时前
链原生 Web3 AI 网络 Chainbase 推出 AVS 主网, 拓展 EigenLayer AVS 应用场景
网络·人工智能·web3
Aileen_0v02 小时前
【AI驱动的数据结构:包装类的艺术与科学】
linux·数据结构·人工智能·笔记·网络协议·tcp/ip·whisper
数信云 DCloud2 小时前
实力认可 | 通付盾入选《ISC.AI 2024创新能力全景图谱》五项领域
人工智能
itwangyang5202 小时前
AIDD - 从机器学习到深度学习:蛋白质-配体对接评分函数的进展
人工智能·深度学习·机器学习
jerry2011082 小时前
机器学习常用术语
人工智能·机器学习