设计普遍逼近的深度神经网络:一阶优化方法

论文地址:https://ieeexplore.ieee.org/document/10477580

传统的基于优化的神经网络设计方法通常从一个具有显式表示的目标函数出发,采用特定的优化算法进行求解,再将优化迭代格式映射为神经网络架构,例如著名的 LISTA-NN 就是利用 LISTA 算法求解 LASSO 问题所得 [4],这种方法受限于目标函数的显式表达式,可设计得到的网络结构有限。一些研究者尝试通过自定义目标函数,再利用算法展开等方法设计网络结构,但他们也需要如权重绑定等与实际情况可能不符的假设。

论文提出的易于操作的网络架构设计方法从一阶优化算法的更新格式出发,将梯度或邻近点算法写成如下的更新格式:

再将梯度项替换为神经网络中的可学习模块 T,即可得到 L 层神经网络的骨架。

链接

相关推荐
流烟默5 分钟前
机器学习中模型的鲁棒性是什么
人工智能·机器学习·鲁棒性
粉色挖掘机7 分钟前
矩阵在密码学的应用——希尔密码详解
线性代数·算法·机器学习·密码学
Wu Liuqi18 分钟前
【大模型学习】Transformer 架构详解:从注意力机制到完整模型构建
transformer·#人工智能·#大模型·#学习·#大模型转行
也许是_1 小时前
大模型原理之深度学习与神经网络入门
人工智能·深度学习·神经网络
谢景行^顾1 小时前
深度学习--激活函数
人工智能·python·机器学习
三千院本院1 小时前
LlaMA_Factory实战微调Qwen-LLM大模型
人工智能·python·深度学习·llama
love is sour2 小时前
理解全连接层:深度学习中的基础构建块
人工智能·深度学习
WGS.9 小时前
llama factory 扩充词表训练
深度学习
Khunkin11 小时前
牛顿迭代法:用几何直觉理解方程求根
机器学习