BERT与CNN结合实现糖尿病相关医学问题多分类模型

完整源码项目包获取→点击文章末尾名片!

使用HuggingFace开发的Transformers库,使用BERT模型实现中文文本分类(二分类或多分类)

首先直接利用transformer.models.bert.BertForSequenceClassification()实现文本分类

然后手动实现BertModel + FC 实现上边函数。其中可以方便的更改参数和结构

然后实验了论文中将bert最后四层进行concat再maxpooling的方法,

最后实现了bert + CNN实现文本分类

模型使用的是哈工大chinese-bert-wwm,可以完全兼容BERT

下载:

git clone https://huggingface.co/hfl/chinese-bert-wwm

结果

除了第一个实验dropout_bert是0.1,其余是0.2. 剩下参数都一样。

训练3个epoch

模型

train/val acc

val acc

test acc

链接

会用内建BertForSequenceClassification

0.982

0.950

0.950

链接

自己实现Bert+fc 一层全连接层

0.982

0.948

0.954

链接

将Bert最后四层相concat然后maxpooling

0.977

0.946

0.951

链接

BERT+CNN

0.984

0.947

0.955

链接

  1. 官方的transformer.models.bert.BertForSequenceClassification()就是直接使用BertModel 再接一层全连接层实现的。第二个项目是为了方便自己修改网络结构,进行手动实现。效果差不多,可以自己修改接几层线形结构,但是实验了一层就够了。
  2. 根据参考2的论文,将BERT最后四层的CLS向量concat然后取max pooling可以让bert在分类问题上有更好的效果。在THUNews上测试可以提高0.4%相比bert。已经很大了相比其他方法而言。
  3. 我一直觉得bert后面接CNN和RNN等都不好,毕竟transformer就是改善这两类模型的,再接一层也好不到哪去。如果我理解不到位可以告诉我。我还实验了bert使用前四层的输出进行concat,效果acc也能达到0.80+,层数越深效果感觉真的不明显。bert+cnn/rnn等这个模型在参考3 中两年前就有人做过实验,写出来过,他实验的效果也是不如单纯的BERT。调了调cnn的大小,其实都差不多。

标签定义:

  • 0: Diagnosis(诊断)
  • 1: Treatment(治疗)
  • 2: Common Knowledge(常识)
  • 3: Healthy lifestyle(健康生活方式)
  • 4: Epidemiology(流行病学)
  • 5: Other(其他)

模型的实现包括以下几个部分:

  1. 数据处理与加载:如何加载文本数据并进行必要的预处理。
  2. 模型架构:
  • bert_lr:一个基于BERT的线性分类器模型。
  • bert_cnn:一个基于BERT与卷积神经网络(CNN)结合的模型。
  1. 训练过程:如何设置训练循环、优化器和损失函数。
  2. 评估与预测:模型在验证集和测试集上的评估,以及如何进行推理。
相关推荐
有梦想的攻城狮5 天前
卷积神经网络(CNN)详解
人工智能·神经网络·cnn·卷积神经网络
陈天伟教授6 天前
人工智能应用- 预测化学反应:08. 基于 BERT 的化学反应分类
人工智能·深度学习·bert
码农三叔6 天前
(3-2-01)视觉感知:目标检测与分类
人工智能·目标检测·分类·机器人·人机交互·人形机器人
DeepModel6 天前
【分类算法】ID3算法超详细讲解
分类·分类算法
向哆哆6 天前
粉尘环境分类检测千张图数据集(适用YOLO系列)(已标注+划分/可直接训练)
yolo·分类·数据挖掘
冰西瓜6006 天前
深度学习的数学原理(十三)—— CNN实战
人工智能·深度学习·cnn
陈天伟教授7 天前
人工智能应用- 预测化学反应:06. BERT 模型简介
人工智能·深度学习·机器学习·自然语言处理·bert·推荐算法
技道两进7 天前
使用DNN\LSTM\CNN进行时间序列预测
cnn·lstm·dnn·时间序列
ppppppatrick8 天前
【深度学习基础篇04】从回归到分类:图像分类与卷积神经网络入门
人工智能·深度学习·分类