【SOM神经网络的数据分类】SOM神经网络的数据分类的一个小案例

【SOM神经网络的数据分类】SOM神经网络的数据分类的一个小案例

注:本文仅作为自己的学习记录以备以后复习查阅

一 概述

自组织特征映射网络(Self-Organizing Feature Map, SOM)也叫做Kohonen网络,它的特点是:全连接、无监督、自组织、自学习 。在SOM网络中,竞争层的神经元会尝试识别输入空间临近该神经元的部分,也就是说,SOM神经网络既可以学习训练数据输入向量的分布特征 ,也可以学习训练数据输入向量的拓扑结构

SOM结构一般包含一下四个部分:

bash 复制代码
1、处理单元阵列
2、比较选择机制
3、局部互联作用
4、自适应过程

其算法流程如下图所示:

最后模型会判断是否达到了预先设定的要求,如果达到要求则算法结束,否则将从输入向量输入这一步重新进行下一轮的学习。

关于原理的解释暂时到这里,下面是一个小案例帮助理解他的用法和适用场景。

二 案例(MATLAB实现)

数据说明

案例中给出了一个含有8个故障样本的数据集,每个故障样本中有8个特征(P1-P8),数据已归一化。

第一步,惯例清空一下环境变量,如果你不需要则跳过这一步

bash 复制代码
clc
clear

第二步,载入数据并转置

bash 复制代码
# 载入数据
load p;

# 转置后符合神经网络的输入格式
P=P';

第三步,建立网络并训练

bash 复制代码
# newsom建立SOM网络
net=newsom(minmax(P),[6 6]);
plotsom(net.layers{1}.positions)
# 7次训练的步数
a=[10 30 50 100 200 500 1000];
# 随机初始化一个1*10向量(用于存放分类后的数据----一次一行)---7-a[*]里面训练的次数,8-数据中的8个故障特征-也就是P的横向变量。
yc=rands(7,8);
# 进行训练
# 训练次数为10次
net.trainparam.epochs=a(1);

下面查看一下这次训练的一个网络和分类情况:

bash 复制代码
net=train(net,P);
y=sim(net,P);
yc(1,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


这里有一些plot选项,可以点出来看一下更细节的信息,其中,蓝色代表神经元,红色线代表神经元直接的连接,每个菱形中的颜色表示神经元之间距离的远近,从黄色到黑色,颜色越深说明神经元之间的距离越远。

每个子图显示了从输入到层神经元的权重,最大的负连接显示为黑色,零连接显示为红色,最强的正连接显示为黄色。

接下来我们试一下训练三十次会变成什么样子:

bash 复制代码
net.trainparam.epochs=a(2);
# 训练网络并查看分类
net=train(net,P);
y=sim(net,P);
yc(2,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)



下面接着训练50、100、200、5001000次,大家可以自己跑来对比一下变化,我在这里只把代码po出来

bash 复制代码
# 训练次数为50次
net.trainparam.epochs=a(3);
net=train(net,P);
y=sim(net,P);
yc(3,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


# 训练次数为100次
net.trainparam.epochs=a(4);
net=train(net,P);
y=sim(net,P);
yc(4,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


# 训练次数为200次
net.trainparam.epochs=a(5);
net=train(net,P);
y=sim(net,P);
yc(5,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)

# 训练次数为500次
net.trainparam.epochs=a(6);
net=train(net,P);
y=sim(net,P);
yc(6,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)

# 训练次数为1000次
net.trainparam.epochs=a(7);
net=train(net,P);
y=sim(net,P);
yc(7,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)
yc

最后yc结果我跑出来是这样的:

训练好模型后我们接着进行第四步,网络预测。对未知样本的分类只能通过rr值和对应分类后的yc矩阵中的值对应,看分到了哪类去,而input那个8个图只能对应8个选定的故障变量值(例子中是故障样本的8个参数)。值得注意的是,SOM程序每次执行的结果不一样是因为每次激发的神经元可能不一样,但是无论激发的是哪些神经元,最后分类的结果不会改变。

bash 复制代码
# 测试样本输入
t=[0.9512 1.0000 0.9458 -0.4215 0.4218 0.9511 0.9645 0.8941]';

r=sim(net,t);
rr=vec2ind(r)

最后查看网络神经元的分布情况:

bash 复制代码
# 网络神经元分布情况
# 查看网络拓扑学结构
plotsomtop(net)
# 查看临近神经元直接的距离情况
plotsomnd(net)
# 查看每个神经元的分类情况
plotsomhits(net,P)
# 每个子图显示了从输入到层神经元的权重,
plotsomplanes(net,P)

三 参考资料

1、MATLAB神经网络43个案例分析

2、https://zhuanlan.zhihu.com/p/73930638

3、https://0809zheng.github.io/2022/01/06/SOM.html

以上!!!!!!

如果以上内容有误请指出,也欢迎大家一起交流学习,私信回复可能会不及时,有问题可以加我的qq:1325225121。

相关推荐
连线Insight3 分钟前
智谱、MiniMax争夺“大模型第一股”:高增长之下各有难题
大数据·人工智能·microsoft
美狐美颜SDK开放平台6 分钟前
专业直播美颜SDK如何打造?美型功能开发思路与方案分享
大数据·人工智能·音视频·美颜sdk·直播美颜sdk·视频美颜sdk
居然JuRan10 分钟前
AI工具"翻车"现场:为什么你学了那么多,还是用不好AI?
人工智能
科学创新前沿22 分钟前
人工智能流体力学仿真专题学习
人工智能·cfd·流体力学
张哈大25 分钟前
AI Ping 上新限免:GLM-4.7 与 MiniMax-M2.1 实测对比
人工智能·python
后端小肥肠31 分钟前
27条作品涨粉77万?我用Coze破解了“藏经人”的流量密码
人工智能·aigc·coze
那雨倾城32 分钟前
YOLO + MediaPipe 在PiscCode上解决多脸 Landmark 中「人脸数量固定」的问题
图像处理·人工智能·深度学习·yolo·目标检测·计算机视觉
MicroTech202534 分钟前
MLGO微算法科技推出人工智能与量子计算融合新成果:基于QLSS与LCHS的量子DPM算法技术
人工智能·科技·算法
xwill*37 分钟前
pytorch中项目配置文件的管理与导入方式
人工智能·python
CodeCraft Studio39 分钟前
Stimulsoft报表与仪表板产品重磅发布2026.1版本:进一步强化跨平台、数据可视化、合规及 AI 辅助设计等
人工智能·信息可视化·报表开发·数据可视化·stimulsoft·仪表板·报表工具