【自然语言处理】应用03:情感分析:使用卷积神经网络

【作者主页】Francek Chen

【专栏介绍】⌈ ⌈ ⌈PyTorch深度学习 ⌋ ⌋ ⌋ 深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重要的技术特征是具有自动提取特征的能力。神经网络算法、算力和数据是开展深度学习的三要素。深度学习在计算机视觉、自然语言处理、多模态数据分析、科学探索等领域都取得了很多成果。本专栏介绍基于PyTorch的深度学习算法实现。

【GitCode】专栏资源保存在我的GitCode仓库:https://gitcode.com/Morse_Chen/PyTorch_deep_learning

文章目录


在卷积神经网络中,我们探讨了使用二维卷积神经网络处理二维图像数据的机制,并将其应用于局部特征,如相邻像素。虽然卷积神经网络最初是为计算机视觉设计的,但它也被广泛用于自然语言处理。简单地说,只要将任何文本序列想象成一维图像即可。通过这种方式,一维卷积神经网络可以处理文本中的局部特征,例如 n n n元语法。

本文将使用textCNN模型来演示如何设计一个表示单个文本的卷积神经网络架构。与带有GloVe预训练的循环神经网络架构进行情感分析相比,图1中唯一的区别在于架构的选择。


图1 将GloVe放入卷积神经网络架构进行情感分析

python 复制代码
import torch
from torch import nn
from d2l import torch as d2l

batch_size = 64
train_iter, test_iter, vocab = d2l.load_data_imdb(batch_size)

一、一维卷积

在介绍该模型之前,先看看一维卷积是如何工作的。请记住,这只是基于互相关运算的二维卷积的特例。

如图2中所示,在一维情况下,卷积窗口在输入张量上从左向右滑动。在滑动期间,卷积窗口中某个位置包含的输入子张量(例如,图2中的 0 0 0和 1 1 1)和核张量(例如,图2中的 1 1 1和 2 2 2)按元素相乘。这些乘法的总和在输出张量的相应位置给出单个标量值(例如,图2中的 0 × 1 + 1 × 2 = 2 0\times1+1\times2=2 0×1+1×2=2)。


图2 一维互相关运算。阴影部分是第一个输出元素以及用于输出计算的输入和核张量元素:0×1+1×2=2

我们在下面的corr1d函数中实现了一维互相关。给定输入张量X和核张量K,它返回输出张量Y

python 复制代码
def corr1d(X, K):
    w = K.shape[0]
    Y = torch.zeros((X.shape[0] - w + 1))
    for i in range(Y.shape[0]):
        Y[i] = (X[i: i + w] * K).sum()
    return Y

我们可以从图2构造输入张量X和核张量K来验证上述一维互相关实现的输出。

python 复制代码
X, K = torch.tensor([0, 1, 2, 3, 4, 5, 6]), torch.tensor([1, 2])
corr1d(X, K)

对于任何具有多个通道的一维输入,卷积核需要具有相同数量的输入通道。然后,对于每个通道,对输入的一维张量和卷积核的一维张量执行互相关运算,将所有通道上的结果相加以产生一维输出张量。图3演示了具有3个输入通道的一维互相关操作。

我们可以实现多个输入通道的一维互相关运算,并在图3中验证结果。

python 复制代码
def corr1d_multi_in(X, K):
    # 首先,遍历'X'和'K'的第0维(通道维)。然后,把它们加在一起
    return sum(corr1d(x, k) for x, k in zip(X, K))

X = torch.tensor([[0, 1, 2, 3, 4, 5, 6],
              [1, 2, 3, 4, 5, 6, 7],
              [2, 3, 4, 5, 6, 7, 8]])
K = torch.tensor([[1, 2], [3, 4], [-1, -3]])
corr1d_multi_in(X, K)


图3 具有3个输入通道的一维互相关运算。阴影部分是第一个输出元素以及用于输出计算的输入和核张量元素:2×(-1)+3×(-3)+1×3+2×4+0×1+1×2=2

注意,多输入通道的一维互相关等同于单输入通道的二维互相关。举例说明,图3中的多输入通道一维互相关的等价形式是fig_conv1d_2d中的单输入通道二维互相关,其中卷积核的高度必须与输入张量的高度相同。


图4 具有单个输入通道的二维互相关操作。阴影部分是第一个输出元素以及用于输出计算的输入和内核张量元素:2×(-1)+3×(-3)+1×3+2×4+0×1+1×2=2

图2和图3中的输出都只有一个通道。与subsec_multi-output-channels中描述的具有多个输出通道的二维卷积相同,我们也可以为一维卷积指定多个输出通道。

二、最大时间汇聚层

类似地,我们可以使用汇聚层从序列表示中提取最大值,作为跨时间步的最重要特征。textCNN中使用的最大时间汇聚层的工作原理类似于一维全局汇聚。对于每个通道在不同时间步存储值的多通道输入,每个通道的输出是该通道的最大值。请注意,最大时间汇聚允许在不同通道上使用不同数量的时间步。

三、textCNN模型

使用一维卷积和最大时间汇聚,textCNN模型将单个预训练的词元表示作为输入,然后获得并转换用于下游应用的序列表示。

对于具有由 d d d维向量表示的 n n n个词元的单个文本序列,输入张量的宽度、高度和通道数分别为 n n n、 1 1 1和 d d d。textCNN模型将输入转换为输出,如下所示:

  1. 定义多个一维卷积核,并分别对输入执行卷积运算。具有不同宽度的卷积核可以捕获不同数目的相邻词元之间的局部特征。
  2. 在所有输出通道上执行最大时间汇聚层,然后将所有标量汇聚输出连结为向量。
  3. 使用全连接层将连结后的向量转换为输出类别。Dropout可以用来减少过拟合。


图5 textCNN的模型架构

图5通过一个具体的例子说明了textCNN的模型架构。输入是具有11个词元的句子,其中每个词元由6维向量表示。因此,我们有一个宽度为11的6通道输入。定义两个宽度为2和4的一维卷积核,分别具有4个和5个输出通道。它们产生4个宽度为 11 − 2 + 1 = 10 11-2+1=10 11−2+1=10的输出通道和5个宽度为 11 − 4 + 1 = 8 11-4+1=8 11−4+1=8的输出通道。尽管这9个通道的宽度不同,但最大时间汇聚层给出了一个连结的9维向量,该向量最终被转换为用于二元情感预测的2维输出向量。

(一)定义模型

我们在下面的类中实现textCNN模型。与情感分析:使用循环神经网络的双向循环神经网络模型相比,除了用卷积层代替循环神经网络层外,我们还使用了两个嵌入层:一个是可训练权重,另一个是固定权重。

python 复制代码
class TextCNN(nn.Module):
    def __init__(self, vocab_size, embed_size, kernel_sizes, num_channels,
                 **kwargs):
        super(TextCNN, self).__init__(**kwargs)
        self.embedding = nn.Embedding(vocab_size, embed_size)
        # 这个嵌入层不需要训练
        self.constant_embedding = nn.Embedding(vocab_size, embed_size)
        self.dropout = nn.Dropout(0.5)
        self.decoder = nn.Linear(sum(num_channels), 2)
        # 最大时间汇聚层没有参数,因此可以共享此实例
        self.pool = nn.AdaptiveAvgPool1d(1)
        self.relu = nn.ReLU()
        # 创建多个一维卷积层
        self.convs = nn.ModuleList()
        for c, k in zip(num_channels, kernel_sizes):
            self.convs.append(nn.Conv1d(2 * embed_size, c, k))

    def forward(self, inputs):
        # 沿着向量维度将两个嵌入层连结起来,
        # 每个嵌入层的输出形状都是(批量大小,词元数量,词元向量维度)连结起来
        embeddings = torch.cat((
            self.embedding(inputs), self.constant_embedding(inputs)), dim=2)
        # 根据一维卷积层的输入格式,重新排列张量,以便通道作为第2维
        embeddings = embeddings.permute(0, 2, 1)
        # 每个一维卷积层在最大时间汇聚层合并后,获得的张量形状是(批量大小,通道数,1)
        # 删除最后一个维度并沿通道维度连结
        encoding = torch.cat([
            torch.squeeze(self.relu(self.pool(conv(embeddings))), dim=-1)
            for conv in self.convs], dim=1)
        outputs = self.decoder(self.dropout(encoding))
        return outputs

让我们创建一个textCNN实例。它有3个卷积层,卷积核宽度分别为3、4和5,均有100个输出通道。

python 复制代码
embed_size, kernel_sizes, nums_channels = 100, [3, 4, 5], [100, 100, 100]
devices = d2l.try_all_gpus()
net = TextCNN(len(vocab), embed_size, kernel_sizes, nums_channels)

def init_weights(m):
    if type(m) in (nn.Linear, nn.Conv1d):
        nn.init.xavier_uniform_(m.weight)

net.apply(init_weights);

(二)加载预训练词向量

情感分析:使用循环神经网络相同,我们加载预训练的100维GloVe嵌入作为初始化的词元表示。这些词元表示(嵌入权重)在embedding中将被训练,在constant_embedding中将被固定。

python 复制代码
glove_embedding = d2l.TokenEmbedding('glove.6b.100d')
embeds = glove_embedding[vocab.idx_to_token]
net.embedding.weight.data.copy_(embeds)
net.constant_embedding.weight.data.copy_(embeds)
net.constant_embedding.weight.requires_grad = False

(三)训练和评估模型

现在我们可以训练textCNN模型进行情感分析。

python 复制代码
lr, num_epochs = 0.001, 5
trainer = torch.optim.Adam(net.parameters(), lr=lr)
loss = nn.CrossEntropyLoss(reduction="none")
d2l.train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, devices)


下面,我们使用训练好的模型来预测两个简单句子的情感。

python 复制代码
d2l.predict_sentiment(net, vocab, 'this movie is so great')
python 复制代码
d2l.predict_sentiment(net, vocab, 'this movie is so bad')

小结

  • 一维卷积神经网络可以处理文本中的局部特征,例如 n n n元语法。
  • 多输入通道的一维互相关等价于单输入通道的二维互相关。
  • 最大时间汇聚层允许在不同通道上使用不同数量的时间步长。
  • textCNN模型使用一维卷积层和最大时间汇聚层将单个词元表示转换为下游应用输出。
相关推荐
fei_sun2 小时前
数字图像处理
人工智能·算法·计算机视觉
AI工具指南2 小时前
2025年AI生成PPT工具技术评测:主流方案对比与选型指南
人工智能·信息可视化·powerpoint
Elastic 中国社区官方博客2 小时前
使用 Elasticsearch Agent Builder 构建对话式费用助手,结合 Telegram, n8n 和 AWS Bedrock
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·aws
山海青风2 小时前
藏文TTS介绍:4 神经网络 TTS 的随机性与自然度
人工智能·python·神经网络·音视频
Deepoch2 小时前
从“单体智能”到“群体协同”:机器狗集群的分布式智能演进之路
人工智能·科技·开发板·具身模型·deepoc·机械狗
人工智能技术咨询.2 小时前
【无标题】基于Tensorflow库的RNN模型预测实战
人工智能
Aninier96933t2 小时前
✅ 集装箱编号识别与分类系统 Faster-RCNN改进模型 水平垂直方向检测 深度学习实战项目(建议收藏)计算机视觉(附源码)
深度学习·计算机视觉
yumgpkpm2 小时前
Cloudera CDH5|CDH6|CDP7.1.7|CDP7.3|CMP 7.3的产品优势分析(在华为鲲鹏 ARM 麒麟KylinOS、统信UOS)
大数据·人工智能·hadoop·深度学习·spark·transformer·cloudera
IT_陈寒2 小时前
JavaScript 性能优化实战:7 个让你的应用提速 50%+ 的 V8 引擎技巧
前端·人工智能·后端