一种用于心音分类的轻量级1D-CNN+DWT网络

这是由National Institute of Technology Rourkela, Central University of Rajasthan发布在2022 ICETCI的论文,利用离散小波变换(DWT)得到的多分辨率域特征对1D-CNN模型进行心音分类训练。

预处理& DWT

由于FHS和各种病理声的频率范围在500hz以下[5],因此将信号从8khz降采样到1khz。信号幅度归一化如下:

数据集里面的信号的长度从1.15秒到3.99秒。经过观察,发现每个样本大约由三个心动周期组成。在识别信号的开始和偏移后,将信号调整为相等长度(2800个样本)。最终得到了归一化后的信号:

再使用DWT将信号分解为低频和高频分量。对高频分量进行下采样,再分解为低频分量和高频分量。

心音信号以coif5为母小波分解为5级,得到的5个详细电平系数和近似电平信号如图所示。

然后排列成一维数组,长度为2942,送入1D-CNN。

1D-CNN

CNN模型由5层组成,1个输入层,2个卷积和池化层,1个全连接(FC)层和1个输出层(softmax)。

使用50个epoch,每个epoch 9次迭代,总共迭代450次,学习率为0.01。批大小为64。

结果

使用Yaseen GitHub数据集,该数据集有1000个样本,每200个样本分为5类,包括主动脉瓣狭窄(AS)、二尖瓣反流(MR)、二尖瓣狭窄(MS)、二尖瓣脱垂(MVP)和正常(N)。每个样本的采样频率设置为1khz,采样长度为2800个样本。完整数据集随机分为训练(70%)和测试(30%)数据集。

测试集混淆矩阵如下:

可以看到该模型能有效地对所有类别进行分类。5个类的F-score在98.18%以上。MR和N的F-score都在99%以上。

除a类的准确率为97.73%外,其余4个指标的准确率均高于98%。这5个类别都达到了高灵敏度(>98%)和高特异性(>99%)。

SOTA比较

使用该方法获得了最高的准确率(98.9%)。

论文地址:

https://avoid.overfit.cn/post/de8b9cc055a34f2fb9fa3c1e509e169b

相关推荐
paixiaoxin29 分钟前
CV-OCR经典论文解读|An Empirical Study of Scaling Law for OCR/OCR 缩放定律的实证研究
人工智能·深度学习·机器学习·生成对抗网络·计算机视觉·ocr·.net
OpenCSG1 小时前
CSGHub开源版本v1.2.0更新
人工智能
weixin_515202491 小时前
第R3周:RNN-心脏病预测
人工智能·rnn·深度学习
Altair澳汰尔1 小时前
数据分析和AI丨知识图谱,AI革命中数据集成和模型构建的关键推动者
人工智能·算法·机器学习·数据分析·知识图谱
机器之心1 小时前
图学习新突破:一个统一框架连接空域和频域
人工智能·后端
AI视觉网奇1 小时前
人脸生成3d模型 Era3D
人工智能·计算机视觉
call me by ur name1 小时前
VLM--CLIP作分类任务的损失函数
人工智能·机器学习·分类
吃个糖糖2 小时前
34 Opencv 自定义角点检测
人工智能·opencv·计算机视觉
禁默2 小时前
2024年图像处理、多媒体技术与机器学习
图像处理·人工智能·microsoft
KeepThinking!2 小时前
YOLO-World:Real-Time Open-Vocabulary Object Detection
人工智能·yolo·目标检测·多模态