报错:unsafe legacy renegotiation disabled
解决方案:
尝试了更换cryptography==36.0.2版本 ,以及更换下载链接 的方法,都不行,最后采用了手动下载mat文件并上传到colab的方法
定义网络:
python
class HybridSN(nn.Module):
def __init__(self):
super(HybridSN, self).__init__()
self.conv3d_1 = nn.Sequential(
nn.Conv3d(1, 8, kernel_size=(7, 3, 3), stride=1, padding=0),
nn.BatchNorm3d(8),
nn.ReLU(inplace = True),
)
self.conv3d_2 = nn.Sequential(
nn.Conv3d(8, 16, kernel_size=(5, 3, 3), stride=1, padding=0),
nn.BatchNorm3d(16),
nn.ReLU(inplace = True),
)
self.conv3d_3 = nn.Sequential(
nn.Conv3d(16, 32, kernel_size=(3, 3, 3), stride=1, padding=0),
nn.BatchNorm3d(32),
nn.ReLU(inplace = True)
)
self.conv2d_4 = nn.Sequential(
nn.Conv2d(576, 64, kernel_size=(3, 3), stride=1, padding=0),
nn.BatchNorm2d(64),
nn.ReLU(inplace = True),
)
self.fc1 = nn.Linear(18496,256)
self.fc2 = nn.Linear(256,128)
self.fc3 = nn.Linear(128,16)
self.dropout = nn.Dropout(p = 0.4)
def forward(self,x):
out = self.conv3d_1(x)
out = self.conv3d_2(out)
out = self.conv3d_3(out)
out = self.conv2d_4(out.reshape(out.shape[0],-1,19,19))
out = out.reshape(out.shape[0],-1)
out = F.relu(self.dropout(self.fc1(out)))
out = F.relu(self.dropout(self.fc2(out)))
out = self.fc3(out)
return out
实验结果:
本次准确率为97.89%
思考题
● 训练HybridSN,然后多测试几次,会发现每次分类的结果都不一样,请思考为什么?
每次训练的时候,神经网络的参数和权重都是随机的,所以每次的结果都不一样。
● 如果想要进一步提升高光谱图像的分类性能,可以如何改进?
增加注意力机制,把Attention加在第三个三维卷积后,以保留更多的光谱信息,从而进一步提升高光谱图像的分类性能。
● depth-wise conv 和 分组卷积有什么区别与联系?
Depth-wise conv(深度可分离卷积)和分组卷积是两种用于减少卷积计算量的优化技术。区别在于:
- Depth-wise conv是在每个输入通道上独立地进行卷积操作,然后再将结果在通道维度上进行组合。这样可以减少参数数量和计算量,但每个通道之间没有交互信息。
- 分组卷积是将输入通道分为若干组,然后在每组内进行卷积操作。这样可以在一定程度上减少计算量,并且每组内的通道可以相互交互信息。但相比普通卷积,分组卷积可能引入一定的信息损失。
● SENet 的注意力是不是可以加在空间位置上?
SENet的注意力机制主要是通过学习通道之间的关系来提升特征的重要性,但也可以通过适当的调整将注意力扩展到空间位置上,从而使网络能够关注不同空间位置上的特征,进一步提升性能。
● 在 ShuffleNet 中,通道的 shuffle 如何用代码实现?
python
import torch
def channel_shuffle(x, groups):
batch_size, height, width, channels = x.size()
channels_per_group = channels // groups
# Reshape the tensor to (batch_size, height, width, groups, channels_per_group)
x = x.view(batch_size, height, width, groups, channels_per_group)
# Transpose the tensor along the last two dimensions (swap channels_per_group and groups)
x = x.permute(0, 1, 2, 4, 3)
# Reshape the tensor back to its original shape
x = x.view(batch_size, height, width, channels)
return x