【SOM神经网络的数据分类】SOM神经网络的数据分类的一个小案例

【SOM神经网络的数据分类】SOM神经网络的数据分类的一个小案例

注:本文仅作为自己的学习记录以备以后复习查阅

一 概述

自组织特征映射网络(Self-Organizing Feature Map, SOM)也叫做Kohonen网络,它的特点是:全连接、无监督、自组织、自学习 。在SOM网络中,竞争层的神经元会尝试识别输入空间临近该神经元的部分,也就是说,SOM神经网络既可以学习训练数据输入向量的分布特征 ,也可以学习训练数据输入向量的拓扑结构

SOM结构一般包含一下四个部分:

bash 复制代码
1、处理单元阵列
2、比较选择机制
3、局部互联作用
4、自适应过程

其算法流程如下图所示:

最后模型会判断是否达到了预先设定的要求,如果达到要求则算法结束,否则将从输入向量输入这一步重新进行下一轮的学习。

关于原理的解释暂时到这里,下面是一个小案例帮助理解他的用法和适用场景。

二 案例(MATLAB实现)

数据说明

案例中给出了一个含有8个故障样本的数据集,每个故障样本中有8个特征(P1-P8),数据已归一化。

第一步,惯例清空一下环境变量,如果你不需要则跳过这一步

bash 复制代码
clc
clear

第二步,载入数据并转置

bash 复制代码
# 载入数据
load p;

# 转置后符合神经网络的输入格式
P=P';

第三步,建立网络并训练

bash 复制代码
# newsom建立SOM网络
net=newsom(minmax(P),[6 6]);
plotsom(net.layers{1}.positions)
# 7次训练的步数
a=[10 30 50 100 200 500 1000];
# 随机初始化一个1*10向量(用于存放分类后的数据----一次一行)---7-a[*]里面训练的次数,8-数据中的8个故障特征-也就是P的横向变量。
yc=rands(7,8);
# 进行训练
# 训练次数为10次
net.trainparam.epochs=a(1);

下面查看一下这次训练的一个网络和分类情况:

bash 复制代码
net=train(net,P);
y=sim(net,P);
yc(1,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


这里有一些plot选项,可以点出来看一下更细节的信息,其中,蓝色代表神经元,红色线代表神经元直接的连接,每个菱形中的颜色表示神经元之间距离的远近,从黄色到黑色,颜色越深说明神经元之间的距离越远。

每个子图显示了从输入到层神经元的权重,最大的负连接显示为黑色,零连接显示为红色,最强的正连接显示为黄色。

接下来我们试一下训练三十次会变成什么样子:

bash 复制代码
net.trainparam.epochs=a(2);
# 训练网络并查看分类
net=train(net,P);
y=sim(net,P);
yc(2,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)



下面接着训练50、100、200、5001000次,大家可以自己跑来对比一下变化,我在这里只把代码po出来

bash 复制代码
# 训练次数为50次
net.trainparam.epochs=a(3);
net=train(net,P);
y=sim(net,P);
yc(3,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


# 训练次数为100次
net.trainparam.epochs=a(4);
net=train(net,P);
y=sim(net,P);
yc(4,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


# 训练次数为200次
net.trainparam.epochs=a(5);
net=train(net,P);
y=sim(net,P);
yc(5,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)

# 训练次数为500次
net.trainparam.epochs=a(6);
net=train(net,P);
y=sim(net,P);
yc(6,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)

# 训练次数为1000次
net.trainparam.epochs=a(7);
net=train(net,P);
y=sim(net,P);
yc(7,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)
yc

最后yc结果我跑出来是这样的:

训练好模型后我们接着进行第四步,网络预测。对未知样本的分类只能通过rr值和对应分类后的yc矩阵中的值对应,看分到了哪类去,而input那个8个图只能对应8个选定的故障变量值(例子中是故障样本的8个参数)。值得注意的是,SOM程序每次执行的结果不一样是因为每次激发的神经元可能不一样,但是无论激发的是哪些神经元,最后分类的结果不会改变。

bash 复制代码
# 测试样本输入
t=[0.9512 1.0000 0.9458 -0.4215 0.4218 0.9511 0.9645 0.8941]';

r=sim(net,t);
rr=vec2ind(r)

最后查看网络神经元的分布情况:

bash 复制代码
# 网络神经元分布情况
# 查看网络拓扑学结构
plotsomtop(net)
# 查看临近神经元直接的距离情况
plotsomnd(net)
# 查看每个神经元的分类情况
plotsomhits(net,P)
# 每个子图显示了从输入到层神经元的权重,
plotsomplanes(net,P)

三 参考资料

1、MATLAB神经网络43个案例分析

2、https://zhuanlan.zhihu.com/p/73930638

3、https://0809zheng.github.io/2022/01/06/SOM.html

以上!!!!!!

如果以上内容有误请指出,也欢迎大家一起交流学习,私信回复可能会不及时,有问题可以加我的qq:1325225121。

相关推荐
engchina14 分钟前
CUTLASS:高性能 CUDA 线性代数模板库详解
人工智能·线性代数·cuda·cutlass
带我去滑雪28 分钟前
基于三种机器学习方法的磁芯损耗预测模型
人工智能·机器学习
猫头不能躺42 分钟前
【pytorch】卷积神经网络
人工智能·pytorch·cnn
无水先生1 小时前
集成技术综合指南:Bagging 和 Boosting
人工智能·算法·机器学习
浮生如梦_1 小时前
C#Halcon图像处理畸变校正之曲面校正
图像处理·人工智能·算法·c#·视觉检测
leo03081 小时前
目标检测,语义分割标注工具--labelimg labelme
人工智能·目标检测·计算机视觉
tilblackout1 小时前
机器学习详解(11):分类任务的模型评估标准
人工智能·机器学习·分类
阿正的梦工坊2 小时前
Pytorch详解 train() 和 eval() 模式会影响Layer Norm吗?(中英双语)
人工智能·pytorch·python
qq_273900232 小时前
pytorch 张量的unfold方法介绍
人工智能·pytorch·python
lyw_YTU_Sussex2 小时前
深度学习day6|用pytorch实现VGG-16模型人脸识别
人工智能·pytorch·深度学习