设计普遍逼近的深度神经网络:一阶优化方法

论文地址:https://ieeexplore.ieee.org/document/10477580

传统的基于优化的神经网络设计方法通常从一个具有显式表示的目标函数出发,采用特定的优化算法进行求解,再将优化迭代格式映射为神经网络架构,例如著名的 LISTA-NN 就是利用 LISTA 算法求解 LASSO 问题所得 [4],这种方法受限于目标函数的显式表达式,可设计得到的网络结构有限。一些研究者尝试通过自定义目标函数,再利用算法展开等方法设计网络结构,但他们也需要如权重绑定等与实际情况可能不符的假设。

论文提出的易于操作的网络架构设计方法从一阶优化算法的更新格式出发,将梯度或邻近点算法写成如下的更新格式:

再将梯度项替换为神经网络中的可学习模块 T,即可得到 L 层神经网络的骨架。

链接

相关推荐
东皇太星1 分钟前
Transformers Tokenizer 使用详解
人工智能·rnn·深度学习·神经网络
CV爱数码3 分钟前
【宝藏数据集】LUMOS:腰椎多模态骨质疏松症筛查专用
人工智能·python·深度学习·机器学习·计算机视觉·数据集
杰瑞不懂代码4 分钟前
【公式推导】AMP算法比BP算法强在哪(一)
python·算法·机器学习·概率论
技术小黑9 分钟前
Pytorch学习系列07 | VGG-16算法实现马铃薯病害识别
pytorch·深度学习·神经网络·cnn
最晚的py19 分钟前
机器学习--损失函数
人工智能·python·机器学习·损失函数
free-elcmacom19 分钟前
机器学习入门<4>RBFN算法详解
开发语言·人工智能·python·算法·机器学习
严文文-Chris21 分钟前
神经网络的组成有哪些?激活函数是什么?有什么作用?
人工智能·深度学习·神经网络
大千AI助手23 分钟前
闵可夫斯基距离:机器学习的“距离家族”之源
人工智能·机器学习·距离度量·大千ai助手·闵可夫斯基距离·lp距离·切比雪夫距离
朝朝暮暮Quake40 分钟前
L1正则项与L2正则项
机器学习
渡我白衣41 分钟前
多路转接模型与select
人工智能·深度学习·websocket·网络协议·机器学习·网络安全·信息与通信