神经网络的常用layer

卷积层

nn.Conv1d

池化层

下采样层主要是使用pooling层的操作技术来实现的,目的主要是保存有效的信息,降低特征的维度,来避免过拟合。对一个M*N的图像,进行s倍的下采样,对长和宽来说各要缩小s倍

全连接层

nn.Linear

(70 封私信 / 85 条消息) 全连接层的作用是什么? - 知乎 (zhihu.com)

复制代码
torch.nn.Linear(in_features, # 输入的神经元个数
           out_features, # 输出神经元个数
           bias=True # 是否包含偏置
           )
nn.Linear(2, 1) # 输入特征数为2,输出特征数为1

Pytorch nn.Linear的基本用法与原理详解_iioSnail的博客-CSDN博客

激活层

nn.relu()

本质是max(0, input),对输入数据进行逐元素操作,如果输入的元素值小于0,则输出为0;否则,输出等于输入。

nn.BatchNormid

相关推荐
AI攻城狮几秒前
OpenFang 给我的一个提醒:AI Agent 真正难的不是自主,而是治理
人工智能·云原生·aigc
ZhengEnCi6 分钟前
10. 重排序模型实战-BGE-Rerank应用
人工智能
DevUI团队3 小时前
🚀 【Angular】MateChat V20.2.2版本发布,新增8+组件,欢迎体验~
前端·javascript·人工智能
DevUI团队3 小时前
🚀 MateChat V1.11.0 震撼发布!新增工具按钮栏组件及体验问题修复,欢迎体验~
前端·javascript·人工智能
乡村中医3 小时前
AIChat渲染md格式优化-Web Worker
人工智能
老迟聊架构3 小时前
说说Vibe Coding的适应范围
人工智能·程序员·架构
数据智能老司机4 小时前
PyTorch 深度学习——使用神经网络来拟合数据
pytorch·深度学习
数据智能老司机4 小时前
PyTorch 深度学习——用于图像的扩散模型
pytorch·深度学习
数据智能老司机4 小时前
PyTorch 深度学习——Transformer 是如何工作的
pytorch·深度学习
闲云一鹤4 小时前
本地部署 B 站 IndexTTS2 模型 - AI 文本生语音神器
前端·人工智能