Transformer-LSTM分类 | Matlab实现Transformer-LSTM多特征分类预测/故障诊断

Transformer-LSTM分类 | Matlab实现Transformer-LSTM多特征分类预测/故障诊断

目录

效果一览








基本介绍

1.Matlab实现Transformer-LSTM多特征分类预测/故障诊断,运行环境Matlab2023b及以上;

2.excel数据,方便替换,输入12个特征,分四类,可在下载区获取数据和程序内容。

3.图很多,包括分类效果图,混淆矩阵图。命令窗口输出分类准确率、灵敏度、特异性、曲线下面积、Kappa系数、F值。

4.附赠案例数据可直接运行main一键出图,注意程序和数据放在一个文件夹,运行环境为Matlab2023b及以上。

5.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。可在下载区获取数据和程序内容。

程序设计

  • 完整程序和数据下载私信博主回复Matlab实现Transformer-LSTM多特征分类预测/故障诊断
clike 复制代码
%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行

%%  读取数据
res = xlsread('data.xlsx');

%%  分析数据
num_class = length(unique(res(:, end)));  % 类别数(Excel最后一列放类别)
num_dim = size(res, 2) - 1;               % 特征维度
num_res = size(res, 1);                   % 样本数(每一行,是一个样本)
num_size = 0.7;                           % 训练集占数据集的比例
res = res(randperm(num_res), :);          % 打乱数据集(不打乱数据时,注释该行)
flag_conusion = 1;                        % 标志位为1,打开混淆矩阵(要求2018版本及以上)

%%  设置变量存储数据
P_train = []; P_test = [];
T_train = []; T_test = [];

%%  划分数据集
for i = 1 : num_class
    mid_res = res((res(:, end) == i), :);           % 循环取出不同类别的样本
    mid_size = size(mid_res, 1);                    % 得到不同类别样本个数
    mid_tiran = round(num_size * mid_size);         % 得到该类别的训练样本个数

         
end

%%  数据转置
P_train = P_train'; P_test = P_test';
T_train = T_train'; T_test = T_test';

%%  得到训练集和测试样本个数
M = size(P_train, 2);
N = size(P_test , 2);

%%  数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);

t_train = categorical(T_train)';
t_test  = categorical(T_test )';

%%  数据平铺
%   将数据平铺成1维数据只是一种处理方式
%   也可以平铺成2维数据,以及3维数据,需要修改对应模型结构
%   但是应该始终和输入层数据结构保持一致
P_train =  double(reshape(P_train, num_dim, 1, 1, M));
P_test  =  double(reshape(P_test , num_dim, 1, 1, N));

%%  数据格式转换
for i = 1 : M
    p_train{i, 1} = P_train(:, :, 1, i);
end

for i = 1 : N
    p_test{i, 1} = P_test( :, :, 1, i);
end

%%  Transformer-lstm网络
%网络搭建
numChannels = num_dim;
maxPosition = 256;
numHeads = 4;
numKeyChannels = numHeads*32;

参考资料

1\] https://blog.csdn.net/kjm13182345320/article/details/128163536?spm=1001.2014.3001.5502 \[2\] https://blog.csdn.net/kjm13182345320/article/details/128151206?spm=1001.2014.3001.5502

相关推荐
会写代码的饭桶7 小时前
Transformers 学习入门:前置知识补漏
rnn·transformer·词嵌入·mlp·反向传播·神经网络基础
addaduvyhup14 小时前
【RNN-LSTM-GRU】第一篇 序列建模基础:理解数据的“顺序”之力
rnn·gru·lstm
拆房老料20 小时前
大语言模型基础-Transformer之上下文
人工智能·语言模型·transformer
盼小辉丶1 天前
Transformer实战(16)——微调Transformer语言模型用于多类别文本分类
深度学习·自然语言处理·分类·transformer
Arong-tina1 天前
【论文阅读—深度学习处理表格数据】ResNet-like & FT Transformer
论文阅读·深度学习·transformer
AI绘画哇哒哒1 天前
【值得收藏】手把手教你用PyTorch构建Transformer英汉翻译系统,从训练到推理
人工智能·pytorch·ai·语言模型·程序员·大模型·transformer
addaduvyhup1 天前
【RNN-LSTM-GRU】第二篇 序列模型原理深度剖析:从RNN到LSTM与GRU
rnn·gru·lstm
过往入尘土1 天前
从 0 到 1 实现 PyTorch 食物图像分类:核心知识点与完整实
人工智能·pytorch·分类
玉木子1 天前
机器学习(六)朴素贝叶斯分类
开发语言·人工智能·python·算法·机器学习·分类
victory04312 天前
Time-MOE添加MLP分类头进行分类任务
人工智能·分类·数据挖掘