An abstract way to solve Luogu P1001

Abstract

本文使用多层感知器(Multilayer Perceptron)实现了计算加法的程序,通过了洛谷(Luogu)的题目 P1001 A+B Problem。

1. Introduction

多层感知器(Multilayer Perceptron,MLP)是一种前馈人工神经网络模型,其将输入的多个数据集映射到单一的输出数据集上。2021年5月,Google Brain提出带有门控机制的改进型gMLP架构,通过控制层间信息流提升了模型性能。基于gMLP框架,研究者开发出ECgMLP模型,首次将卷积操作嵌入门控MLP结构中,结合了全局信息处理和局部特征提取的优势。该架构通过上下文感知的门控机制动态调整特征重要性,在高分辨率病理图像分析中展现出特定优势,应用于癌症检测领域。

:::align{right}

------百度百科

:::

MLP(Multilayer Perceptron,多层感知器)是一种前馈神经网络,即其没有任何反馈。它拥有一个输入层,若干个隐层和一个输出层。输入通过输入层,通过矩阵操作和激活函数流向输出层,得出最终结果。训练一般使用反向传播(Back Propagation,BP)实现。

注意到神经网络比较万能,我们考虑用它解决 A+B problem。

2. Time Complexity Analysis

我们使用经典的 MLP 实现,使用若干个 batch,每个 batch 训练若干轮。

我们得到一种 O ( a b c ) + O ( 1 ) = O ( a b c ) O(abc)+O(1)=O(abc) O(abc)+O(1)=O(abc) 的算法,其中 a a a 是 batch 的数量, b b b 是每个 batch 的训练次数,而 c c c 是每个 batch 的大小。常数也不算大,大概就是 a b c = 3 × 10 5 abc=3\times 10^5 abc=3×105 都要跑约 650 m s 650\mathrm{ms} 650ms 的常数。

3. Implementation

没有隐层,损失函数用的 MSE,激活函数用的 f ( x ) = x f(x)=x f(x)=x,一共 30 30 30 个 batch,每个 batch 训 10 10 10 次,每个 batch 1000 1000 1000 个数据,学习率 0.01 0.01 0.01。输入是 − 1 ∼ 1 -1\sim 1 −1∼1 的实数,然后求结果就是除以 10 9 10^9 109 然后扔给 MLP 然后把结果乘 10 9 10^9 109 再四舍五入(注意不能用 int(x+0.5) 因为 int 是向零取整)。

AC 记录。你会发现代码中间有一些 #include,这是因为我把多文件直接展开成单文件了。

代码长度也就 28.29 K B 28.29\mathrm{KB} 28.29KB( 843 843 843 行),总时间也就 6.57 s 6.57\mathrm{s} 6.57s(没有进行任何优化......纯暴力),内存达到了整整 1.03 M B 1.03\mathrm{MB} 1.03MB。

4. Conclusion

我们发现 MLP 可以用来实现 A+B Problem,拿下了 AC(Accepted,即通过)的成绩。

References

相关推荐
ambition2024215 分钟前
从暴力搜索到理论最优:一道任务调度问题的完整算法演进历程
c语言·数据结构·c++·算法·贪心算法·深度优先
cmpxr_17 分钟前
【C】原码和补码以及环形坐标取模算法
c语言·开发语言·算法
qiqsevenqiqiqiqi18 分钟前
前缀和差分
算法·图论
鬼先生_sir22 分钟前
Spring AI Alibaba 1.1.2.2 完整知识点库
人工智能·ai·agent·源码解析·springai
代码旅人ing26 分钟前
链表算法刷题指南
数据结构·算法·链表
kebeiovo31 分钟前
atomic原子操作实现无锁队列
服务器·c++
Yungoal32 分钟前
常见 时间复杂度计算
c++·算法
6Hzlia39 分钟前
【Hot 100 刷题计划】 LeetCode 48. 旋转图像 | C++ 矩阵变换题解
c++·leetcode·矩阵
xixixi777772 小时前
通信领域的“中国速度”:从5G-A到6G,从地面到星空
人工智能·5g·安全·ai·fpga开发·多模态