随机森林算法
随机森林(Random Forest)是一种集成学习方法,特别用于分类、回归和其他任务,它通过构建多个决策树(Decision Trees)在训练时进行预测,并采用平均或多数投票的方式来提高整体模型的准确性和鲁棒性。随机森林是由Leo Breiman和Adele Cutler提出的,它结合了Bagging(Bootstrap Aggregating)的思想和随机特征选择来构建决策树的集合。
工作原理
随机森林的工作过程可以概括为以下几个步骤:
- 
自助采样(Bootstrap sampling):从原始数据集中使用有放回的抽样方式随机选择N个样本,形成一个训练集。这个过程重复进行多次,每次生成的训练集都用来构建一个新的决策树。 
- 
随机选择特征:在构建决策树的每个分裂节点时,不是查看所有特征来选择最佳分裂特征,而是随机选择一部分特征候选集,并从中选择最佳分裂特征。这一步增加了模型的随机性,有助于提高模型的泛化能力。 
- 
构建决策树:对于每个训练集,构建一个决策树。决策树在训练过程中不进行剪枝,允许它们尽可能地生长到最大深度。 
- 
汇总结果: - 对于分类任务,随机森林通过多数投票的方式确定最终的类别输出。
- 对于回归任务,随机森林将所有决策树的预测结果取平均值作为最终的预测输出。
 
特点和优势
- 准确性高:通过集成多个决策树,随机森林通常能够达到很高的准确率,并且相比单个决策树,它更不容易过拟合。
- 鲁棒性强:随机森林能够处理大量数据集,即使数据具有高维特征并且存在少量的缺失数据也能很好地工作。
- 变量重要性评估:随机森林能够提供关于特征重要性的估计,这对于理解数据集中哪些特征对预测变量贡献最大非常有用。
- 适用范围广:随机森林可以用于分类和回归任务,也被用于异常点检测等其他机器学习任务中。
应用场景
随机森林因其出色的准确性、鲁棒性和易用性,在各种领域得到了广泛的应用,包括但不限于:
- 
医疗诊断 
- 
金融风险评估 
- 
股票市场分析 
- 
客户行为预测 
- 
图像分类和识别 
- 
生物信息学和基因分类 #coding=utf-8 
 #RandomForestClassifier.py
 import numpy as np
 import pandas as pd
 from sklearn.model_selection import train_test_split
 from sklearn.ensemble import RandomForestClassifier加载数据filename="./glass.data" 
 glass_data = pd.read_csv(filename,index_col=0,header=None)先从DataFrame中取出数组值(.value),只是为了方便后面显示X,y = glass_data.iloc[:,:-1].values, glass_data.iloc[:,-1].values 
 #X,y = glass_data.iloc[:,:-1], glass_data.iloc[:,-1]划分训练集与测试集X_train, X_test, y_train, y_test = train_test_split( 
 X, y, shuffle=True, stratify=y, random_state=1)建立模型rfc = RandomForestClassifier(max_depth=4,bootstrap=True, 
 random_state=0)
 rfc.fit(X_train, y_train)
 print("训练集准确率:",rfc.score(X_train,y_train))
 print("测试集准确率:",rfc.score(X_test,y_test))
 print("测试集前2个样本的预测分类标签:",rfc.predict(X_test[:2]))
 print("测试集前2个样本的真实分类标签:",y_test[:2])
 print("测试集前2个样本所属标签概率的预测值:\n",
 rfc.predict_proba(X_test[:2]),sep="")