【SOM神经网络的数据分类】SOM神经网络的数据分类的一个小案例

【SOM神经网络的数据分类】SOM神经网络的数据分类的一个小案例

注:本文仅作为自己的学习记录以备以后复习查阅

一 概述

自组织特征映射网络(Self-Organizing Feature Map, SOM)也叫做Kohonen网络,它的特点是:全连接、无监督、自组织、自学习 。在SOM网络中,竞争层的神经元会尝试识别输入空间临近该神经元的部分,也就是说,SOM神经网络既可以学习训练数据输入向量的分布特征 ,也可以学习训练数据输入向量的拓扑结构

SOM结构一般包含一下四个部分:

bash 复制代码
1、处理单元阵列
2、比较选择机制
3、局部互联作用
4、自适应过程

其算法流程如下图所示:

最后模型会判断是否达到了预先设定的要求,如果达到要求则算法结束,否则将从输入向量输入这一步重新进行下一轮的学习。

关于原理的解释暂时到这里,下面是一个小案例帮助理解他的用法和适用场景。

二 案例(MATLAB实现)

数据说明

案例中给出了一个含有8个故障样本的数据集,每个故障样本中有8个特征(P1-P8),数据已归一化。

第一步,惯例清空一下环境变量,如果你不需要则跳过这一步

bash 复制代码
clc
clear

第二步,载入数据并转置

bash 复制代码
# 载入数据
load p;

# 转置后符合神经网络的输入格式
P=P';

第三步,建立网络并训练

bash 复制代码
# newsom建立SOM网络
net=newsom(minmax(P),[6 6]);
plotsom(net.layers{1}.positions)
# 7次训练的步数
a=[10 30 50 100 200 500 1000];
# 随机初始化一个1*10向量(用于存放分类后的数据----一次一行)---7-a[*]里面训练的次数,8-数据中的8个故障特征-也就是P的横向变量。
yc=rands(7,8);
# 进行训练
# 训练次数为10次
net.trainparam.epochs=a(1);

下面查看一下这次训练的一个网络和分类情况:

bash 复制代码
net=train(net,P);
y=sim(net,P);
yc(1,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


这里有一些plot选项,可以点出来看一下更细节的信息,其中,蓝色代表神经元,红色线代表神经元直接的连接,每个菱形中的颜色表示神经元之间距离的远近,从黄色到黑色,颜色越深说明神经元之间的距离越远。

每个子图显示了从输入到层神经元的权重,最大的负连接显示为黑色,零连接显示为红色,最强的正连接显示为黄色。

接下来我们试一下训练三十次会变成什么样子:

bash 复制代码
net.trainparam.epochs=a(2);
# 训练网络并查看分类
net=train(net,P);
y=sim(net,P);
yc(2,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)



下面接着训练50、100、200、5001000次,大家可以自己跑来对比一下变化,我在这里只把代码po出来

bash 复制代码
# 训练次数为50次
net.trainparam.epochs=a(3);
net=train(net,P);
y=sim(net,P);
yc(3,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


# 训练次数为100次
net.trainparam.epochs=a(4);
net=train(net,P);
y=sim(net,P);
yc(4,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)


# 训练次数为200次
net.trainparam.epochs=a(5);
net=train(net,P);
y=sim(net,P);
yc(5,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)

# 训练次数为500次
net.trainparam.epochs=a(6);
net=train(net,P);
y=sim(net,P);
yc(6,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)

# 训练次数为1000次
net.trainparam.epochs=a(7);
net=train(net,P);
y=sim(net,P);
yc(7,:)=vec2ind(y);
plotsom(net.IW{1,1},net.layers{1}.distances)
yc

最后yc结果我跑出来是这样的:

训练好模型后我们接着进行第四步,网络预测。对未知样本的分类只能通过rr值和对应分类后的yc矩阵中的值对应,看分到了哪类去,而input那个8个图只能对应8个选定的故障变量值(例子中是故障样本的8个参数)。值得注意的是,SOM程序每次执行的结果不一样是因为每次激发的神经元可能不一样,但是无论激发的是哪些神经元,最后分类的结果不会改变。

bash 复制代码
# 测试样本输入
t=[0.9512 1.0000 0.9458 -0.4215 0.4218 0.9511 0.9645 0.8941]';

r=sim(net,t);
rr=vec2ind(r)

最后查看网络神经元的分布情况:

bash 复制代码
# 网络神经元分布情况
# 查看网络拓扑学结构
plotsomtop(net)
# 查看临近神经元直接的距离情况
plotsomnd(net)
# 查看每个神经元的分类情况
plotsomhits(net,P)
# 每个子图显示了从输入到层神经元的权重,
plotsomplanes(net,P)

三 参考资料

1、MATLAB神经网络43个案例分析

2、https://zhuanlan.zhihu.com/p/73930638

3、https://0809zheng.github.io/2022/01/06/SOM.html

以上!!!!!!

如果以上内容有误请指出,也欢迎大家一起交流学习,私信回复可能会不及时,有问题可以加我的qq:1325225121。

相关推荐
文军的烹饪实验室1 分钟前
用于评估大语言模型(LLMs)能力的重要基准任务(Benchmark)
人工智能·语言模型·自然语言处理
平行绳8 分钟前
利用Coze智能体搞定小红书图文(下)
人工智能·coze
yzx99101315 分钟前
Python开发功能项目
服务器·开发语言·人工智能·python·深度学习
测试者家园22 分钟前
接口测试不再难:智能体自动生成 Postman 集合
软件测试·人工智能·测试工具·postman·agent·智能化测试·测试开发和测试
tonydf24 分钟前
浅尝一下微软的AutoGen框架
人工智能·后端
柠檬味拥抱29 分钟前
面向大语言模型的MCP插件系统架构与能力协商机制研究
人工智能
Blossom.1181 小时前
基于深度学习的异常检测系统:原理、实现与应用
人工智能·深度学习·神经网络·目标检测·机器学习·scikit-learn·sklearn
VR最前沿1 小时前
Xsens动捕和Manus数据手套在元宇宙数字人制作中提供解决方案
大数据·人工智能·科技·机器人·自动化
好好学习啊天天向上1 小时前
深度学习编译器
人工智能·深度学习
Gyoku Mint1 小时前
机器学习×第七卷:正则化与过拟合——她开始学会收敛,不再贴得太满
人工智能·python·算法·chatgpt·线性回归·ai编程