神经网络的常用layer

卷积层

nn.Conv1d

池化层

下采样层主要是使用pooling层的操作技术来实现的,目的主要是保存有效的信息,降低特征的维度,来避免过拟合。对一个M*N的图像,进行s倍的下采样,对长和宽来说各要缩小s倍

全连接层

nn.Linear

(70 封私信 / 85 条消息) 全连接层的作用是什么? - 知乎 (zhihu.com)

复制代码
torch.nn.Linear(in_features, # 输入的神经元个数
           out_features, # 输出神经元个数
           bias=True # 是否包含偏置
           )
nn.Linear(2, 1) # 输入特征数为2,输出特征数为1

Pytorch nn.Linear的基本用法与原理详解_iioSnail的博客-CSDN博客

激活层

nn.relu()

本质是max(0, input),对输入数据进行逐元素操作,如果输入的元素值小于0,则输出为0;否则,输出等于输入。

nn.BatchNormid

相关推荐
裤裤兔4 分钟前
卷积神经网络中的自适应池化
人工智能·神经网络·cnn·自适应池化
TracyCoder12316 分钟前
词嵌入来龙去脉:One-hot、Word2Vec、GloVe、ELMo
人工智能·自然语言处理·word2vec
V1ncent Chen18 分钟前
机器是如何变“智能“的?:机器学习
人工智能·机器学习
ccLianLian26 分钟前
CLIP Surgery
人工智能·计算机视觉
秋刀鱼 ..37 分钟前
2026年新一代智能通信与信号处理研讨会
人工智能·神经网络·物联网·计算机网络·人机交互·信号处理
Buxxxxxx1 小时前
DAY 38 MLP神经网络的训练
深度学习·神经网络·机器学习
likeshop 好像科技1 小时前
新手学习AI智能体Agent逻辑设计的指引
人工智能·学习·开源·github
许泽宇的技术分享1 小时前
当 AI Agent 遇上可观测性:AgentOpenTelemetry 让你的智能体不再“黑盒“
人工智能·可观测性·opentelemetry·agentframework
加载中3611 小时前
LLM基础知识,langchainV1.0讲解(一)
人工智能·langchain
一水鉴天1 小时前
整体设计 定稿 之23 dashboard.html 增加三层次动态记录体系仪表盘 之2 程序 (Q199 之1)
人工智能·架构·自动化