LSTM 模型“实现”整数相加运算

文章简介

本文主要介绍了使用 LSTM 模型完成简单的两个整数相加的运算。

数据准备

为了满足模型训练的需要,应该准备 50000 条样本,每个样本包含 query 字符串ans 字符串,如下所示:

makefile 复制代码
query:52+758
ans: 810

我们这里限定了加法运算的两个整数都是 1-999 的任意一个整数,所以 query 的长度最长为 7 (两个最大的三位数和一个加号组成的字符串长度),ans 的长度最长为 4 ,如果长度不足,则在后面用空格补齐。关键代码如下:

scss 复制代码
while len(questions) < TRAINING_SIZE:
    f = lambda: int("".join(np.random.choice(list("1234567890")) for _ in range(np.random.randint(1, DIGITS + 1))))
    a, b = f(), f()
    ...
    q = "{}+{}".format(a, b)
    query = q + " " * (MAXLEN - len(q))
    ans = str(a + b)
    ans += " " * (DIGITS + 1 - len(ans))
    questions.append(query)
    expected.append(ans)

样本创建好之后,需要对样本进行向量化处理,也就是将每个字符都转换成对应的 one-hot 表示,因为每个样本的 query 长度为 7 ,字符集合长度为 12 ,所以每个 query 改成 [7,12] 的 one-hot 向量;每个样本的 ans 长度为 4 ,字符集合长度为 12 ,所以每个 ans 改成 [4,12] 的 one-hot 向量。关键代码如下:

scss 复制代码
x = np.zeros((len(questions), MAXLEN, len(chars)), dtype=np.bool)
y = np.zeros((len(questions), DIGITS + 1, len(chars)), dtype=np.bool)
for i, sentence in enumerate(questions):
    x[i] = ctable.encode(sentence, MAXLEN)
for i, sentence in enumerate(expected):
    y[i] = ctable.encode(sentence, DIGITS + 1)

模型搭建

模型结构很简单,主要使用了 LSTM 层、RepeatVector 层、 Dense 层,都是基础知识,不做过多解释,编译模型时候设置损失函数为categorical_crossentropy,优化器为 adam 优化器,评估指标为准确率accuracy 关键代码如下:

ini 复制代码
model = keras.Sequential()
model.add(layers.LSTM(128, input_shape=(MAXLEN, len(chars))))
model.add(layers.RepeatVector(DIGITS + 1))
model.add(layers.LSTM(128, return_sequences=True))
model.add(layers.Dense(len(chars), activation="softmax"))
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

模型训练

选取 90% 的样本为训练集, 10% 的样本为测试集,下面是模型训练的日志打印:

yaml 复制代码
Iter 1
1407/1407 [==============================] - 11s 6ms/step - loss: 1.7796 - accuracy: 0.3499 - val_loss: 1.5788 - val_accuracy: 0.4065
Iter 2
1407/1407 [==============================] - 9s 6ms/step - loss: 1.3928 - accuracy: 0.4762 - val_loss: 1.2489 - val_accuracy: 0.5346
...
Iter 28
1407/1407 [==============================] - 9s 6ms/step - loss: 0.0205 - accuracy: 0.9944 - val_loss: 0.0257 - val_accuracy: 0.9917
Iter 29
1407/1407 [==============================] - 9s 6ms/step - loss: 0.0256 - accuracy: 0.9926 - val_loss: 0.0747 - val_accuracy: 0.9827

效果展示

下面展示了 10 条样本结果,预测正确的有 表示,预测错误的有 表示,可以看出来结果基本正确,最终的验证集准确率能达到 0.9827 。

css 复制代码
Q 537+65  A 602  ☑ 602 
Q 0+998   A 998  ☑ 998 
Q 50+691  A 741  ☑ 741 
Q 104+773 A 877  ☑ 877 
Q 21+84   A 105  ☑ 105 
Q 318+882 A 1200 ☑ 1200
Q 850+90  A 940  ☑ 940 
Q 96+11   A 107  ☒ 907 
Q 1+144   A 145  ☑ 145 
Q 809+4   A 813  ☑ 813 

参考

github.com/wangdayaya/...

相关推荐
All The Way North-1 分钟前
彻底掌握 RNN(实战):PyTorch API 详解、多层RNN、参数解析与输入机制
pytorch·rnn·深度学习·循环神经网络·参数详解·api详解
童话名剑1 小时前
情感分类与词嵌入除偏(吴恩达深度学习笔记)
笔记·深度学习·分类
咋吃都不胖lyh2 小时前
CLIP 不是一个 “自主判断图像内容” 的图像分类模型,而是一个 “图文语义相似度匹配模型”—
人工智能·深度学习·机器学习
咚咚王者4 小时前
人工智能之核心技术 深度学习 第七章 扩散模型(Diffusion Models)
人工智能·深度学习
逄逄不是胖胖4 小时前
《动手学深度学习》-60translate实现
人工智能·python·深度学习
koo3644 小时前
pytorch深度学习笔记19
pytorch·笔记·深度学习
玄同7654 小时前
LangChain v1.0+ Prompt 模板完全指南:构建精准可控的大模型交互
人工智能·语言模型·自然语言处理·langchain·nlp·交互·知识图谱
哥布林学者6 小时前
吴恩达深度学习课程五:自然语言处理 第三周:序列模型与注意力机制(三)注意力机制
深度学习·ai
A先生的AI之旅6 小时前
2026-1-30 LingBot-VA解读
人工智能·pytorch·python·深度学习·神经网络
Learn Beyond Limits6 小时前
文献阅读:A Probabilistic U-Net for Segmentation of Ambiguous Images
论文阅读·人工智能·深度学习·算法·机器学习·计算机视觉·ai