回归预测 | MATLAB实现基于SAE堆叠自编辑器多输入单输出回归预测
目录
预测效果
基本介绍
1.MATLAB实现基于SAE堆叠自编辑器多输入单输出回归预测;
2.运行环境为Matlab2020b;
3.输入多个特征,输出单个变量,多变量回归预测;
4.data为数据集,excel数据,前7列输入,最后1列输出,所有文件放在一个文件夹;
5.命令窗口输出R2、MAE、MAPE、RMSE多指标评价;
模型描述
基于SAE(Stacked Autoencoder)的堆叠自编码器是一种无监督学习算法,用于学习输入数据的特征表示。它可以用于多输入单输出的回归预测任务。下面是一个基于SAE堆叠自编码器的多输入单输出回归预测的一般步骤:准备输入数据和对应的输出标签。输入数据可以有多个特征,每个特征可以是数值型、分类型或者其他类型的数据。输出标签是回归预测的目标值。对输入数据进行标准化处理,使得不同特征具有相同的尺度。这可以提高模型的训练效果。使用堆叠自编码器的层次结构逐层进行训练。每一层的自编码器都是一个无监督学习模型,它通过最小化重构误差来学习输入数据的表示。每个自编码器的隐藏层输出可以作为下一层自编码器的输入。
训练完整的堆叠自编码器后,可以使用它来提取输入数据的特征表示。将输入数据通过每一层的自编码器,得到每一层的隐藏层输出作为新的特征表示。使用提取的特征表示和对应的输出标签进行回归模型的训练。可以选择常见的回归模型,如线性回归、支持向量回归(SVR)或者深度神经网络等。使用评估指标(如均方误差、平均绝对误差等)对训练好的回归模型进行评估。可以使用交叉验证等技术来评估模型的泛化性能。使用训练好的回归模型对新的输入数据进行预测。将输入数据通过特征提取步骤得到特征表示,然后使用回归模型进行预测。SAE的堆叠自编码器可以根据具体的任务和数据进行调整和优化。
程序设计
- 完整源码和数据获取方式:私信回复基于SAE堆叠自编辑器多输入单输出回归预测。
clike
%% 预测
t_sim1 = predict(net, p_train);
t_sim2 = predict(net, p_test );
%% 数据反归一化
T_sim1 = mapminmax('reverse', t_sim1, ps_output);
T_sim2 = mapminmax('reverse', t_sim2, ps_output);
%% 均方根误差
error1 = sqrt(sum((T_sim1' - T_train).^2) ./ M);
error2 = sqrt(sum((T_sim2' - T_test ).^2) ./ N);
%% 相关指标计算
% R2
R1 = 1 - norm(T_train - T_sim1')^2 / norm(T_train - mean(T_train))^2;
R2 = 1 - norm(T_test - T_sim2')^2 / norm(T_test - mean(T_test ))^2;
disp(['训练集数据的R2为:', num2str(R1)])
disp(['测试集数据的R2为:', num2str(R2)])
% MAE
mae1 = sum(abs(T_sim1' - T_train)) ./ M ;
mae2 = sum(abs(T_sim2' - T_test )) ./ N ;
disp(['训练集数据的MAE为:', num2str(mae1)])
disp(['测试集数据的MAE为:', num2str(mae2)])
%% 平均绝对百分比误差MAPE
MAPE1 = mean(abs((T_train - T_sim1')./T_train));
MAPE2 = mean(abs((T_test - T_sim2')./T_test));
disp(['训练集数据的MAPE为:', num2str(MAPE1)])
disp(['测试集数据的MAPE为:', num2str(MAPE2)])
% MBE
mbe1 = sum(abs(T_sim1' - T_train)) ./ M ;
mbe2 = sum(abs(T_sim1' - T_train)) ./ N ;
disp(['训练集数据的MBE为:', num2str(mbe1)])
disp(['测试集数据的MBE为:', num2str(mbe2)])
%均方误差 MSE
mse1 = sum((T_sim1' - T_train).^2)./M;
mse2 = sum((T_sim2' - T_test).^2)./N;
disp(['训练集数据的MSE为:', num2str(mse1)])
disp(['测试集数据的MSE为:', num2str(mse2)])
参考资料
[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501