An abstract way to solve Luogu P1001

Abstract

本文使用多层感知器(Multilayer Perceptron)实现了计算加法的程序,通过了洛谷(Luogu)的题目 P1001 A+B Problem。

1. Introduction

多层感知器(Multilayer Perceptron,MLP)是一种前馈人工神经网络模型,其将输入的多个数据集映射到单一的输出数据集上。2021年5月,Google Brain提出带有门控机制的改进型gMLP架构,通过控制层间信息流提升了模型性能。基于gMLP框架,研究者开发出ECgMLP模型,首次将卷积操作嵌入门控MLP结构中,结合了全局信息处理和局部特征提取的优势。该架构通过上下文感知的门控机制动态调整特征重要性,在高分辨率病理图像分析中展现出特定优势,应用于癌症检测领域。

:::align{right}

------百度百科

:::

MLP(Multilayer Perceptron,多层感知器)是一种前馈神经网络,即其没有任何反馈。它拥有一个输入层,若干个隐层和一个输出层。输入通过输入层,通过矩阵操作和激活函数流向输出层,得出最终结果。训练一般使用反向传播(Back Propagation,BP)实现。

注意到神经网络比较万能,我们考虑用它解决 A+B problem。

2. Time Complexity Analysis

我们使用经典的 MLP 实现,使用若干个 batch,每个 batch 训练若干轮。

我们得到一种 O ( a b c ) + O ( 1 ) = O ( a b c ) O(abc)+O(1)=O(abc) O(abc)+O(1)=O(abc) 的算法,其中 a a a 是 batch 的数量, b b b 是每个 batch 的训练次数,而 c c c 是每个 batch 的大小。常数也不算大,大概就是 a b c = 3 × 10 5 abc=3\times 10^5 abc=3×105 都要跑约 650 m s 650\mathrm{ms} 650ms 的常数。

3. Implementation

没有隐层,损失函数用的 MSE,激活函数用的 f ( x ) = x f(x)=x f(x)=x,一共 30 30 30 个 batch,每个 batch 训 10 10 10 次,每个 batch 1000 1000 1000 个数据,学习率 0.01 0.01 0.01。输入是 − 1 ∼ 1 -1\sim 1 −1∼1 的实数,然后求结果就是除以 10 9 10^9 109 然后扔给 MLP 然后把结果乘 10 9 10^9 109 再四舍五入(注意不能用 int(x+0.5) 因为 int 是向零取整)。

AC 记录。你会发现代码中间有一些 #include,这是因为我把多文件直接展开成单文件了。

代码长度也就 28.29 K B 28.29\mathrm{KB} 28.29KB( 843 843 843 行),总时间也就 6.57 s 6.57\mathrm{s} 6.57s(没有进行任何优化......纯暴力),内存达到了整整 1.03 M B 1.03\mathrm{MB} 1.03MB。

4. Conclusion

我们发现 MLP 可以用来实现 A+B Problem,拿下了 AC(Accepted,即通过)的成绩。

References

相关推荐
HXhlx3 小时前
CART决策树基本原理
算法·机器学习
Wect4 小时前
LeetCode 210. 课程表 II 题解:Kahn算法+DFS 双解法精讲
前端·算法·typescript
GPUStack4 小时前
Token 不再焦虑:用 GPUStack + OpenClaw 搭一个“无限用”的本地 AI 助手
ai·模型推理·gpustack·openclaw
颜酱4 小时前
单调队列:滑动窗口极值问题的最优解(通用模板版)
javascript·后端·算法
肆忆_7 小时前
# 用 5 个问题学懂 C++ 虚函数(入门级)
c++
不想写代码的星星11 小时前
虚函数表:C++ 多态背后的那个男人
c++
Gorway11 小时前
解析残差网络 (ResNet)
算法
拖拉斯旋风11 小时前
LeetCode 经典算法题解析:优先队列与广度优先搜索的巧妙应用
算法
Wect11 小时前
LeetCode 207. 课程表:两种解法(BFS+DFS)详细解析
前端·算法·typescript