神经网络常见操作(卷积)输入输出

卷积

  • dim=d的tensor可以进行torch.nn.Convnd(in_channels,out_channels),其中n=d-1,d-2
  • 对于torch.nn.Convnd(in_channels,out_channels),改变的是tensor的倒数n+1维的大小

全连接

  • 使用torch.nn.Linear(in_features,out_features,bias)实现
  • Y=XWT +b,其中X 的形状为 (batch_size,in_features),而 W T的形状为 (in_features,out_features),b 的形状为 (out_features),在加法操作中会自动扩展为 (batch_size,out_features)。
  • 在 PyTorch 中,torch.nn.Linear 的权重矩阵W不需要手动设置,它会在初始化时自动生成并进行默认的初始化,使用均匀分布或正态分布(由参数设定)
  • 偏置向量 b 默认为全零
相关推荐
龙文浩_2 小时前
Attention Mechanism: From Theory to Code
人工智能·深度学习·神经网络·学习·自然语言处理
微臣愚钝2 小时前
prompt
人工智能·深度学习·prompt
宝贝儿好2 小时前
【LLM】第二章:文本表示:词袋模型、小案例:基于文本的推荐系统(酒店推荐)
人工智能·python·深度学习·神经网络·自然语言处理·机器人·语音识别
YBAdvanceFu3 小时前
从零构建智能体:深入理解 ReAct Plan Solve Reflection 三大经典范式
人工智能·python·机器学习·数据挖掘·多智能体·智能体
啦啦啦在冲冲冲4 小时前
多头注意力机制的优势是啥,遇到长文本的情况,可以从哪些情况优化呢
人工智能·深度学习
CV-杨帆5 小时前
ICLR 2026 LLM安全相关论文整理
人工智能·深度学习·安全
小程故事多_805 小时前
从零吃透Transformer核心,多头注意力、残差连接与前馈网络(大白话完整版)
人工智能·深度学习·架构·aigc·transformer
AI应用实战 | RE5 小时前
012、检索器(Retrievers)核心:从向量库中智能查找信息
人工智能·算法·机器学习·langchain
liliangcsdn5 小时前
MCP协议的深度分析与应用示例
人工智能·机器学习·全文检索
清空mega6 小时前
动手学深度学习——SSD
人工智能·深度学习