神经网络的常用layer

卷积层

nn.Conv1d

池化层

下采样层主要是使用pooling层的操作技术来实现的,目的主要是保存有效的信息,降低特征的维度,来避免过拟合。对一个M*N的图像,进行s倍的下采样,对长和宽来说各要缩小s倍

全连接层

nn.Linear

(70 封私信 / 85 条消息) 全连接层的作用是什么? - 知乎 (zhihu.com)

复制代码
torch.nn.Linear(in_features, # 输入的神经元个数
           out_features, # 输出神经元个数
           bias=True # 是否包含偏置
           )
nn.Linear(2, 1) # 输入特征数为2,输出特征数为1

Pytorch nn.Linear的基本用法与原理详解_iioSnail的博客-CSDN博客

激活层

nn.relu()

本质是max(0, input),对输入数据进行逐元素操作,如果输入的元素值小于0,则输出为0;否则,输出等于输入。

nn.BatchNormid

相关推荐
陈广亮26 分钟前
构建具有长期记忆的 AI Agent:从设计模式到生产实践
人工智能
会写代码的柯基犬35 分钟前
DeepSeek vs Kimi vs Qwen —— AI 生成俄罗斯方块代码效果横评
人工智能·llm
Mintopia1 小时前
OpenClaw 是什么?为什么节后热度如此之高?
人工智能
爱可生开源社区1 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两4 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪4 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain
strayCat232554 小时前
Clawdbot 源码解读 7: 扩展机制
人工智能·开源
程序员打怪兽4 小时前
详解Visual Transformer (ViT)网络模型
深度学习
王鑫星4 小时前
SWE-bench 首次突破 80%:Claude Opus 4.5 发布,Anthropic 的野心不止于写代码
人工智能