【SOM神经网络的数据分类】SOM神经网络的数据分类的一个小案例

【SOM神经网络的数据分类】SOM神经网络的数据分类的一个小案例

注:本文仅作为自己的学习记录以备以后复习查阅

一 概述

自组织特征映射网络(Self-Organizing Feature Map, SOM)也叫做Kohonen网络,它的特点是:全连接、无监督、自组织、自学习 。在SOM网络中,竞争层的神经元会尝试识别输入空间临近该神经元的部分,也就是说,SOM神经网络既可以学习训练数据输入向量的分布特征 ,也可以学习训练数据输入向量的拓扑结构

SOM结构一般包含一下四个部分:

bash 复制代码
1、处理单元阵列
2、比较选择机制
3、局部互联作用
4、自适应过程

其算法流程如下图所示:

最后模型会判断是否达到了预先设定的要求,如果达到要求则算法结束,否则将从输入向量输入这一步重新进行下一轮的学习。

关于原理的解释暂时到这里,下面是一个小案例帮助理解他的用法和适用场景。

二 案例(MATLAB实现)

数据说明

案例中给出了一个含有8个故障样本的数据集,每个故障样本中有8个特征(P1-P8),数据已归一化。

第一步,惯例清空一下环境变量,如果你不需要则跳过这一步

bash 复制代码
clc
clear

第二步,载入数据并转置

bash 复制代码
# 载入数据
load p;

# 转置后符合神经网络的输入格式
P=P';

第三步,建立网络并训练

bash 复制代码
# newsom建立SOM网络
net=newsom(minmax(P),[6 6]);
plotsom(net.layers{1}.positions)
# 7次训练的步数
a=[10 30 50 100 200 500 1000];
# 随机初始化一个1*10向量(用于存放分类后的数据----一次一行)---7-a[*]里面训练的次数,8-数据中的8个故障特征-也就是P的横向变量。
yc=rands(7,8);
# 进行训练
# 训练次数为10次
net.trainparam.epochs=a(1);

下面查看一下这次训练的一个网络和分类情况:

bash 复制代码
net=train(net,P);
y=sim(net,P);
yc(1,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


这里有一些plot选项,可以点出来看一下更细节的信息,其中,蓝色代表神经元,红色线代表神经元直接的连接,每个菱形中的颜色表示神经元之间距离的远近,从黄色到黑色,颜色越深说明神经元之间的距离越远。

每个子图显示了从输入到层神经元的权重,最大的负连接显示为黑色,零连接显示为红色,最强的正连接显示为黄色。

接下来我们试一下训练三十次会变成什么样子:

bash 复制代码
net.trainparam.epochs=a(2);
# 训练网络并查看分类
net=train(net,P);
y=sim(net,P);
yc(2,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)



下面接着训练50、100、200、5001000次,大家可以自己跑来对比一下变化,我在这里只把代码po出来

bash 复制代码
# 训练次数为50次
net.trainparam.epochs=a(3);
net=train(net,P);
y=sim(net,P);
yc(3,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


# 训练次数为100次
net.trainparam.epochs=a(4);
net=train(net,P);
y=sim(net,P);
yc(4,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


# 训练次数为200次
net.trainparam.epochs=a(5);
net=train(net,P);
y=sim(net,P);
yc(5,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)

# 训练次数为500次
net.trainparam.epochs=a(6);
net=train(net,P);
y=sim(net,P);
yc(6,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)

# 训练次数为1000次
net.trainparam.epochs=a(7);
net=train(net,P);
y=sim(net,P);
yc(7,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)
yc

最后yc结果我跑出来是这样的:

训练好模型后我们接着进行第四步,网络预测。对未知样本的分类只能通过rr值和对应分类后的yc矩阵中的值对应,看分到了哪类去,而input那个8个图只能对应8个选定的故障变量值(例子中是故障样本的8个参数)。值得注意的是,SOM程序每次执行的结果不一样是因为每次激发的神经元可能不一样,但是无论激发的是哪些神经元,最后分类的结果不会改变。

bash 复制代码
# 测试样本输入
t=[0.9512 1.0000 0.9458 -0.4215 0.4218 0.9511 0.9645 0.8941]';

r=sim(net,t);
rr=vec2ind(r)

最后查看网络神经元的分布情况:

bash 复制代码
# 网络神经元分布情况
# 查看网络拓扑学结构
plotsomtop(net)
# 查看临近神经元直接的距离情况
plotsomnd(net)
# 查看每个神经元的分类情况
plotsomhits(net,P)
# 每个子图显示了从输入到层神经元的权重,
plotsomplanes(net,P)

三 参考资料

1、MATLAB神经网络43个案例分析

2、https://zhuanlan.zhihu.com/p/73930638

3、https://0809zheng.github.io/2022/01/06/SOM.html

以上!!!!!!

如果以上内容有误请指出,也欢迎大家一起交流学习,私信回复可能会不及时,有问题可以加我的qq:1325225121。

相关推荐
白拾2 分钟前
使用Scikit-image进行图像处理入门
图像处理·人工智能
学习前端的小z5 分钟前
【AIGC】ChatGPT提示词解析:如何打造个人IP、CSDN爆款技术文案与高效教案设计
人工智能·chatgpt·aigc
小子不愁5 分钟前
PyTorch训练Celeba
人工智能·pytorch·python·celeba
_.Switch1 小时前
Python深度学习:从神经网络到循环神经网络
开发语言·人工智能·python·rnn·深度学习·神经网络·机器学习
只是有点小怂1 小时前
不同领域神经网络一般选择什么模型作为baseline(基准模型)
人工智能·深度学习·神经网络
FL16238631295 小时前
[数据集][目标检测]辣椒缺陷检测数据集VOC+YOLO格式695张5类别
人工智能·yolo·目标检测
醒了就刷牙6 小时前
63.5 注意力提示_by《李沐:动手学深度学习v2》pytorch版
人工智能·pytorch·深度学习
技术无疆7 小时前
【Python】Arrow使用指南:轻松管理日期与时间
开发语言·人工智能·python·深度学习·机器学习·数据挖掘·python3.11
三桥君7 小时前
Prompt:在AI时代,提问比答案更有价值
人工智能·ai·大模型·prompt·产品经理·三桥君
一轮秋月8 小时前
【工具】arxiv_latex_cleaner 去除latex注释
人工智能