- 一般输入参数为batch_size×num_features×height×width
当高度和宽度不一样时,分别计算即可。
2.ReLU函数的表达式为:f(x) = max(0, x)。
3.Pytorch中最大池化层Maxpool的作用说明及实例使用(附代码)-CSDN博客
4.假设x
的形状是(A, B, C, D)
,其中A
、B
、C
、D
是各个维度的尺寸。执行x = torch.flatten(x, 1)
后,x
的新形状将会是(A, B*C*D)
。这是因为从第二个维度(索引为1的维度,即B
维度)开始,所有后续的维度都被合并成了一个维度。