PyTorch概述(五)---LINEAR

  • torch.nn.Linear
python 复制代码
torch.nn.Linear(in_features,out_features,bias=True,device=None,dtype=None)
  • 对输入的数据应用一个线性变换:
  • 该模块支持TensorFLoat32类型的数据;
  • 在某些ROCm设备上,使用float16类型的数据输入时,该模块在反向传播中使用不同的精度;

参数

  • in_features(int)---每一个输入样本数据的大小;
  • out_features(int)---每一个输出样本的大小;
  • bias(bool)---如果设置为Flase,该层将不学习一个可加合的偏置,默认为True;

形状

  • Input:(*,Hin)---这里的*意味着任何维度包括空,Hin=in_features;
  • OUtput(*,Hout)---这里除了最后一个维度之外,所有的形状同输入一样,Hout=out_features;

变量

  • weight(torch.Tensor)---形状为(out_features,in_features)的可学习的模块权重,值从初始化,这里;
  • bias---形状为(out_features)的可学习的偏置模块,如果设置为True,值从初始化,这里;

实例

python 复制代码
import torch
import torch.nn as nn

m=nn.Linear(20,30)
input=torch.randn(128,20)
output=m(input)
print(output.size())#torch.size([128,30])
相关推荐
这个男人是小帅11 分钟前
【GAT】 代码详解 (1) 运行方法【pytorch】可运行版本
人工智能·pytorch·python·深度学习·分类
__基本操作__13 分钟前
边缘提取函数 [OPENCV--2]
人工智能·opencv·计算机视觉
Doctor老王18 分钟前
TR3:Pytorch复现Transformer
人工智能·pytorch·transformer
热爱生活的五柒18 分钟前
pytorch中数据和模型都要部署在cuda上面
人工智能·pytorch·深度学习
HyperAI超神经2 小时前
【TVM 教程】使用 Tensorize 来利用硬件内联函数
人工智能·深度学习·自然语言处理·tvm·计算机技术·编程开发·编译框架
扫地的小何尚4 小时前
NVIDIA RTX 系统上使用 llama.cpp 加速 LLM
人工智能·aigc·llama·gpu·nvidia·cuda·英伟达
埃菲尔铁塔_CV算法6 小时前
深度学习神经网络创新点方向
人工智能·深度学习·神经网络
艾思科蓝-何老师【H8053】7 小时前
【ACM出版】第四届信号处理与通信技术国际学术会议(SPCT 2024)
人工智能·信号处理·论文发表·香港中文大学
weixin_452600697 小时前
《青牛科技 GC6125:驱动芯片中的璀璨之星,点亮 IPcamera 和云台控制(替代 BU24025/ROHM)》
人工智能·科技·单片机·嵌入式硬件·新能源充电桩·智能充电枪
学术搬运工7 小时前
【珠海科技学院主办,暨南大学协办 | IEEE出版 | EI检索稳定 】2024年健康大数据与智能医疗国际会议(ICHIH 2024)
大数据·图像处理·人工智能·科技·机器学习·自然语言处理