Keras多分类鸢尾花DEMO

完整的一个小demo:

pandas==1.2.4

numpy==1.19.2

python==3.9.2

复制代码
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from pandas import DataFrame
from scipy.io import loadmat
from sklearn.model_selection import train_test_split
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout
from sklearn import preprocessing
from sklearn.datasets import load_iris
# 映射函数iris_type: 将string的label映射至数字label
import os

# data.to_csv('data.csv',index=False)  #cvs保存文件不会保存index列
# data = pd.read_csv('data.csv',index_col=0)  #读取csv文件的时候选择不读取第一列信息
def downLoad():
    path="../httdemo/"
    iris = load_iris()
    data = iris.data #获取特征数据
    target = iris.target#获取目标数据
    data_information = DataFrame(data, columns=['bcalyx', 'scalyx', 'length', 'width']) #重新定义特征数据的列名
    data_target = DataFrame(target, columns=['target'])#目标数据列名target
    data_csv = pd.concat([data_information, data_target], axis=1) #合并特征数据和目标数据到一个DataFrame
    if not os.path.exists(path):#把DataFrame数据保存到本地,以.CVS的格式保存
        os.makedirs(path)
    filename = path + 'iris.csv'  #定义保存路径
    data_csv.to_csv(filename,index=False) #index==False表示,序号下表列不做保存

    # 本地数据保存为excel文件
    # outputfile = "iris.xls"  # 保存文件路径名
    # column = list(data['feature_names'])
    # dd = pd.DataFrame(data.data, index=range(150), columns=column)
    # dt = pd.DataFrame(data.target, index=range(150), columns=['outcome'])
    # jj = dd.join(dt, how='outer')  # 用到DataFrame的合并方法,将data.data数据与data.target数据合并
    # jj.to_excel(outputfile)  # 将数据保存到outputfile文件中


def readData(path):
    Data = pd.read_csv(path,names=['bcalyx', 'scalyx', 'length', 'width','target']) #读取本地保存的CVS数据
    Data.head(10)#展示前10
    # 变量初始化
    # 最后一列为y,其余为x
    cols = Data.shape[1]  # 获取列数 shape[0]行数 [1]列数
    X = Data.iloc[1:, 0:cols - 1].astype(float)  # 获取得到特征数据,转换为Float的格式,如果输入str,会报错的,取前cols-1列,即输入向量
    y = Data.iloc[1:, cols - 1:cols]  # 取最后一列,即目标变量
    X = np.array(X)
    y = np.array(y)
    print(y)
    return X,y

def startM():
    path = "../httdemo/iris.csv"
    X,y=readData(path)  #加载数据

    from sklearn.preprocessing import OneHotEncoder
    # 创建独热编码器对象
    encoder = OneHotEncoder() #sklearn创建热编码器对象
    # 训练独热编码器 (将目标数据进行训练)
    encoder.fit(y)

    # 转换特征向量 (将目标数据y转换为特征向量[[0,0,1][0,1,0][0,0,1]])格式
    encoded_data = encoder.transform(y).toarray()

    # shuffle = True 随机打乱后再进行分割数据
    X_train, X_test, y_train, y_test = train_test_split(X, encoded_data, test_size=0.3,shuffle=True)


    #构建网络模型
    model = Sequential()
    model.add(Dense(units=1024, activation='relu', input_dim=4))  # 输入层,1024个激活单元,激活函数为relu,输入数据维度为(4,)
    model.add(Dense(units=512, activation='relu'))  # 隐藏层,512个激活单元,激活函数为relu
    model.add(Dense(units=256, activation='relu'))  # 隐藏层,256个激活单元,激活函数为relu
    model.add(Dropout(0.1)) #丢到10%的数据
    model.add(Dense(units=3, activation='softmax'))  # 输出层,3个输出单元,激活函数为softmax)


    model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
    #开始训练
    model.fit(X_train, y_train, batch_size=30, epochs=32)

    #预测测试集的结果
    result = model.predict(X_test)
    yTest=np.round(result, 2)#保留俩位小数
    print(yTest)

    #测试机准确率评估
    score = model.evaluate(X_test, y_test)
    print('loss值为:', score[0])
    print('准确率为:', score[1])



if __name__=='__main__':
    startM()
    # downLoad()

特征数据是str,需要转换成float

复制代码
X = Data.iloc[1:, 0:cols - 1].astype(float)

target的数据打印:

热编码转换之后的数据:

测试集预测结果:表示的位概率值,那个数值比较大,就是哪一个类别,每一个数组表示A,B,C

\[0.01 0.28 0.71

0.91 0.06 0.03

0.01 0.28 0.71

0.02 0.33 0.66

0.01 0.28 0.71

0.06 0.51 0.44

0.92 0.05 0.02

0.04 0.43 0.53

0.02 0.38 0.6

0.01 0.31 0.67

0.03 0.42 0.55

0.01 0.24 0.76

0.01 0.32 0.67

0.06 0.49 0.45

0.01 0.25 0.74

0.01 0.31 0.68

0.08 0.51 0.42

0.92 0.06 0.02

0.88 0.09 0.04

0.02 0.33 0.65

0.01 0.29 0.7

0.01 0.28 0.71

0.04 0.47 0.49

0.9 0.07 0.03

0.91 0.06 0.03

0.86 0.1 0.04

0.18 0.5 0.31

0.89 0.08 0.03

0.91 0.07 0.03

0.06 0.47 0.48

0.02 0.37 0.61

0.04 0.39 0.57

0.87 0.09 0.04

0.05 0.46 0.49

0.01 0.27 0.72

0.02 0.34 0.64

0.05 0.45 0.5

0.92 0.06 0.02

0.09 0.53 0.38

0.04 0.48 0.48

0.95 0.04 0.02

0.01 0.26 0.73

0. 0.24 0.76

0.78 0.15 0.07

0. 0.21 0.79\]

运行结果:

训练完成之后保存模型,然后测试模型:

读取模型,开始预测:

复制代码
from tensorflow.keras.models import load_model
import numpy as np
# 模型的导入
model = load_model('../httdemo/httmodel.h5')
# 对数据的预测输入分别为[花萼长,花萼宽,花瓣长,花瓣宽]
y_pred = model.predict([[2,1,5.5,2],[2.3,4.5,5.2,9]])
print(y_pred)
for i in y_pred:
    a = np.argmax(i)
    if a == 0 : print('该花为A')
    elif a == 1 : print('该花为B')
    elif a == 2 : print('该花为C')

测试结果:准确预测出来为C种类

相关推荐
仗剑_走天涯33 分钟前
基于pytorch.nn模块实现线性模型
人工智能·pytorch·python·深度学习
cnbestec2 小时前
协作机器人UR7e与UR12e:轻量化设计与高负载能力助力“小而美”智造升级
人工智能·机器人·协作机器人·ur协作机器人·ur7e·ur12e
zskj_zhyl2 小时前
毫米波雷达守护银发安全:七彩喜跌倒检测仪重构居家养老防线
人工智能·安全·重构
gaosushexiangji3 小时前
利用sCMOS科学相机测量激光散射强度
大数据·人工智能·数码相机·计算机视觉
ai小鬼头4 小时前
AIStarter新版重磅来袭!永久订阅限时福利抢先看
人工智能·开源·github
说私域4 小时前
从品牌附庸到自我表达:定制开发开源AI智能名片S2B2C商城小程序赋能下的营销变革
人工智能·小程序
飞哥数智坊5 小时前
新版定价不够用,Cursor如何退回旧版定价
人工智能·cursor
12点一刻5 小时前
搭建自动化工作流:探寻解放双手的有效方案(2)
运维·人工智能·自动化·deepseek
未来之窗软件服务5 小时前
东方仙盟AI数据中间件使用教程:开启数据交互与自动化应用新时代——仙盟创梦IDE
运维·人工智能·自动化·仙盟创梦ide·东方仙盟·阿雪技术观
JNU freshman6 小时前
计算机视觉速成 之 概述
人工智能·计算机视觉