机器学习——决策树基础

第1关:创建数据集

python 复制代码
def createDataSet():
    dataSet = [[1, 1, 'yes'],
               [1, 1, 'yes'],
               [1, 0, 'no'],
               [0, 1, 'no'],
               [0, 1, 'no']]
    labels = ['no surfacing','flippers']
    return dataSet, labels
####请在此处输入代码####
myDat, t = createDataSet()
#######################
print(myDat)

第2关:计算数据集的信息熵

python 复制代码
from math import log
import operator
def calcShannonEnt(dataSet):
    numEntries = len(dataSet)                   #声明数据集中样本总数
    labelCounts = {}                             #创建字典
    for featVec in dataSet:                      #所有可能分类的数量和发生频率
        currentLabel = featVec[-1]
        if currentLabel not in labelCounts.keys(): labelCounts[currentLabel] = 0
        labelCounts[currentLabel] += 1
    shannonEnt = 0.0
    for key in labelCounts:
        prob = float(labelCounts[key])/numEntries
        shannonEnt -= prob * log(prob,2) #log base 2
    return shannonEnt

第3关:数据集的划分

python 复制代码
def splitDataSet(dataSet, axis, value):
    retDataSet = []                                   #创建列表对象引用数据集,防止由于多次调用而改变元数据集。
    ####请在此处输入代码####
    for i in dataSet:
        if i[axis] == value:
            t = i[:axis]
            t.extend(i[axis + 1:])
            retDataSet.append(t)
    #######################
    return retDataSet

第4关:计算信息增益

python 复制代码
from ex03_lib import calcShannonEnt,splitDataSet

def chooseBestFeatureToSplit(dataSet):
    numFeatures = len(dataSet[0]) - 1          #最后一个元素是当前实例的类别标签。
    baseEntropy = calcShannonEnt(dataSet)    #计算原始信息熵。
    bestInfoGain = 0.0; bestFeature = -1
    for i in range(numFeatures):            #遍历数据集中所有特征。
        featList = [example[i] for example in dataSet]#create a list of all the examples of this feature
        uniqueVals = set(featList)           #创建唯一的分类标签列表。
        newEntropy = 0.0
        ####请在此处输入代码####
        for value in uniqueVals:             #遍历当前特征中所有唯一的特征值。
            subDataSet = splitDataSet(dataSet, i, value)
            prob = len(subDataSet)/float(len(dataSet))
            newEntropy += prob * calcShannonEnt(subDataSet)  #计算每种划分方式的信息熵。   
        infoGain = baseEntropy - newEntropy        #计算信息增益。
        #######################
        if (infoGain > bestInfoGain):            #将结果与目前所得到的最优划分进行比较。
            bestInfoGain = infoGain                   #如果结果优于当前最优化分特征,则更新划分特征。
            bestFeature = i
    return bestFeature                                 #返回最优划分的索引值。
相关推荐
一水鉴天3 分钟前
为AI聊天工具添加一个知识系统 之82 详细设计之23 符号逻辑 &正则表达式规则 之1
人工智能
深蓝海拓16 分钟前
基于深度学习的视觉检测小项目(十六) 用户管理界面的组态
人工智能·python·深度学习·qt·pyqt
Icomi_30 分钟前
【PyTorch】7.自动微分模块:开启神经网络 “进化之门” 的魔法钥匙
c语言·c++·人工智能·pytorch·python·机器学习·计算机视觉
沐雪架构师33 分钟前
AI大模型开发原理篇-4:神经概率语言模型NPLM
人工智能·语言模型·自然语言处理
道友老李35 分钟前
【自然语言处理(NLP)】多头注意力(Multi - Head Attention)原理及代码实现
人工智能·自然语言处理
逐梦苍穹43 分钟前
神经网络的数据流动过程(张量的转换和输出)
人工智能·深度学习·神经网络
我的运维人生1 小时前
计算机视觉:解锁智能时代的钥匙与实战案例
人工智能·计算机视觉·运维开发·技术共享
MoRanzhi12032 小时前
亲和传播聚类算法应用(Affinity Propagation)
人工智能·python·机器学习·数学建模·scikit-learn·聚类
金融OG2 小时前
99.23 金融难点通俗解释:小卖部经营比喻PPI(生产者物价指数)vsCPI(消费者物价指数)
人工智能·python·机器学习·数学建模·金融·数据可视化
艾醒(AiXing-w)2 小时前
玩转大语言模型——使用langchain和Ollama本地部署大语言模型
人工智能·语言模型·langchain