速来!未发表!DTW-Kmeans-Transformer-BiLSTM组合模型!时序聚类+状态识别!

速来!未发表!DTW-Kmeans-Transformer-BiLSTM组合模型!时序聚类+状态识别!

目录

效果一览










基本介绍

1.创新未发表!研究亮点!时序聚类+状态识别,DTW-Kmeans-Transformer-BiLSTM组合模型,运行环境Matlab2023b及以上;基于动态时间规整(DTW)的kmeans序列聚类算法,将DTW算法求得的距离取代欧式距离衡量不同长度的阵列或时间序列之间的相似性或距离,实现时间序列的聚类。算法为Matlab编写,注释清晰,逻辑详细,可以方便地替换数据。

2.excel数据,方便替换,先运行main1_DTW_Kmeans对时序数据进行聚类、再运行main2_Transformer_BiLSTM对聚类后的数据进行识别,其余为函数文件无需运行,可在下载区获取数据和程序内容,适用于交通、气象、负荷等领域。

3.图很多,包括聚类效果图、分类识别效果图,混淆矩阵图。命令窗口输出分类准确率、灵敏度、特异性、曲线下面积、Kappa系数、F值。

4.附赠案例数据可直接运行main一键出图,注意程序和数据放在一个文件夹,运行环境为Matlab2023b及以上。

5.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。可在下载区获取数据和程序内容。

程序设计

  • 完整源码和数据获取方式私信博主回复DTW-Kmeans-Transformer-BiLSTM组合模型
clike 复制代码
%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行



%%  分析数据
num_class = length(unique(res(:, end)));  % 类别数(Excel最后一列放类别)
num_dim = size(res, 2) - 1;               % 特征维度
num_res = size(res, 1);                   % 样本数(每一行,是一个样本)
num_size = 0.7;                           % 训练集占数据集的比例
res = res(randperm(num_res), :);          % 打乱数据集(不打乱数据时,注释该行)
flag_conusion = 1;                        % 标志位为1,打开混淆矩阵(要求2018版本及以上)

%%  设置变量存储数据
P_train = []; P_test = [];
T_train = []; T_test = [];

%%  划分数据集
for i = 1 : num_class
    mid_res = res((res(:, end) == i), :);           % 循环取出不同类别的样本
    mid_size = size(mid_res, 1);                    % 得到不同类别样本个数
    mid_tiran = round(num_size * mid_size);         % 得到该类别的训练样本个数

         
end

%%  数据转置
P_train = P_train'; P_test = P_test';
T_train = T_train'; T_test = T_test';

%%  得到训练集和测试样本个数
M = size(P_train, 2);
N = size(P_test , 2);

%%  数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);

t_train = categorical(T_train)';
t_test  = categorical(T_test )';

%%  数据平铺
%   将数据平铺成1维数据只是一种处理方式
%   也可以平铺成2维数据,以及3维数据,需要修改对应模型结构
%   但是应该始终和输入层数据结构保持一致
P_train =  double(reshape(P_train, num_dim, 1, 1, M));
P_test  =  double(reshape(P_test , num_dim, 1, 1, N));

%%  数据格式转换
for i = 1 : M
    p_train{i, 1} = P_train(:, :, 1, i);
end

for i = 1 : N
    p_test{i, 1} = P_test( :, :, 1, i);
end


%网络搭建
numChannels = num_dim;
maxPosition = 256;
numHeads = 4;
numKeyChannels = numHeads*32;

参考资料

1\] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501 \[2\] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501

相关推荐
Hello.Reader2 小时前
词语没有位置感?用“音乐节拍“给 Transformer 装上时钟——Positional Encoding 图解
人工智能·深度学习·transformer
吴佳浩 Alben4 小时前
CUDA_VISIBLE_DEVICES、多进程与容器化陷阱
人工智能·pytorch·语言模型·transformer
机器学习之心6 小时前
四模型锂电池剩余寿命预测对比(LSTM、BiLSTM、GRU、BiGRU),NASA数据集,MATLAB代码
gru·lstm·bilstm·bigru·nasa数据集·四模型锂电池剩余寿命预测对比
造夢先森6 小时前
【白话神经网络(三)】从Transformer到XXX
人工智能·神经网络·transformer
冰西瓜6001 天前
深度学习的数学原理(十九)—— 视觉Transformer(ViT)实战
人工智能·深度学习·transformer
程序媛小鱼1 天前
从预训练到Transformer到GPT
gpt·深度学习·bert·transformer
本是少年1 天前
# Qwen3.5在Transformers库部署推理及ReAct智能体
人工智能·深度学习·transformer
gorgeous(๑>؂<๑)1 天前
【CVPR26-雷涛-陕西科技大学陕西省人工智能联合实验室】SPEGC:基于语义提示增强图聚类的医学图像分割持续测试时自适应
人工智能·科技·机器学习·数据挖掘·聚类
前端摸鱼匠1 天前
面试题7:Encoder-only、Decoder-only、Encoder-Decoder三种架构的差异与适用场景?
人工智能·深度学习·ai·面试·职场和发展·架构·transformer
剑穗挂着新流苏3122 天前
Pytorch加载数据
python·深度学习·transformer