食物分类问题


设置随机种子的目的:如果我们得到了一个特别好的模型,但后面可能无法复现了

python 复制代码
def seed_everything(seed):
    torch.manual_seed(seed)
    torch.cuda.manual_seed(seed)
    torch.cuda.manual_seed_all(seed)
    torch.backends.cudnn.benchmark = False
    torch.backends.cudnn.deterministic = True
    random.seed(seed)
    np.random.seed(seed)
    os.environ['PYTHONHASHSEED'] = str(seed)
#################################################################
seed_everything(0)
###############################################

数据增广:

计算机不认识有变化的图片。所以我们在训练的时候就要对图片进行各种变换(比如变小和旋转),这样就能让模型见过足够多的照片,这样就相当于把数据集扩充了。

每次取一个batch的数据,都进行增广。

python 复制代码
#数据增广。
train_transform = transforms.Compose([
    transforms.ToPILImage(),#将张量(Tensor)转换为 PIL(Python Imaging Library)图像对象
    transforms.RandomResizedCrop(224),#把图片随机放大,再从其中拿出224*224.即只拿出原图的一部分。
    transforms.RandomRotation(50),#随机旋转
    transforms.ToTensor()#转为张量
])

在机器学习中,要把数据转换成张量的原因:大多数深度学习框架,如TensorFlow和PyTorch,都是基于张量进行计算的。这些框架提供了大量针对张量的优化算法和函数,可以高效地进行矩阵运算、梯度下降等操作。因此,为了利用这些框架进行深度学习,我们需要将数据转换为张量。

python 复制代码
class myModel(nn.Module):
    def __init__(self, num_class):#num_class是类别数
        super(myModel, self).__init__()
        #  3*224*224  -> 512*7*7
        self.layer1 = nn.Sequential(
            nn.Conv2d(3,64,3,1,1),
            nn.BatchNorm2d(64),
            nn.ReLU(),#卷积层也是需要激活函数的
            nn.MaxPool2d(2)#最大池化
        )
        #  64*112*112

        # self.conv2= nn.Conv2d(64,128,3,1,1)
        # self.bn2 = nn.BatchNorm2d(128)
        # self.relu2 = nn.ReLU()
        # self.pool2 = nn.MaxPool2d(2)
        self.layer2 = nn.Sequential(
            nn.Conv2d(64,128,3,1,1),
            nn.BatchNorm2d(128),
            nn.ReLU(),
            nn.MaxPool2d(2)
        )
        #128*56*56

        self.layer3 = nn.Sequential(
            nn.Conv2d(128,256,3,1,1),
            nn.BatchNorm2d(256),
            nn.ReLU(),
            nn.MaxPool2d(2)
        )

        #256*28*28
        self.layer4 = nn.Sequential(
            nn.Conv2d(256,512,3,1,1),
            nn.BatchNorm2d(512),
            nn.ReLU(),
            nn.MaxPool2d(2)
        )
        # 512*14*14
        self.pool1 = nn.MaxPool2d(2)
        # 512*7*7 - 25088
        self.fc1 = nn.Linear(25088, 1000)
        self.relu = nn.ReLU()
        self.fc2 = nn.Linear(1000, num_class)

BatchNorm2d是深度学习中的一种层,主要用于进行批归一化(Batch Normalization)操作。批归一化是一种常用的技术,用于解决深度神经网络训练中的梯度消失和梯度爆炸问题,提高网络的收敛速度和稳定性。它通过对每个小批量样本的特征进行规范化,使得特征的均值接近0,方差接近1,从而使输入数据分布更加稳定,有助于缓解梯度问题,提高网络的泛化能力。

argmax() 函数的作用是返回数组中最大元素的索引(位置)


迁移学习:数据量少时的最佳选择。eg:有个模型它训练得很好,已经训练了1000多万图片了,我们的模型效果很差,我们可以直接拿别人的模型。但最后的全连接不一样,我是分11类,他们是分1000类,所以我们只借特征提取器。

他们有很多预训练,我们只是微调。我们使用他们的参数和架构。

相关推荐
infominer23 分钟前
RAGFlow 0.12 版本功能导读
人工智能·开源·aigc·ai-native
涩即是Null25 分钟前
如何构建LSTM神经网络模型
人工智能·rnn·深度学习·神经网络·lstm
本本的小橙子28 分钟前
第十四周:机器学习
人工智能·机器学习
励志成为美貌才华为一体的女子43 分钟前
《大规模语言模型从理论到实践》第一轮学习--第四章分布式训练
人工智能·分布式·语言模型
学步_技术1 小时前
自动驾驶系列—自动驾驶背后的数据通道:通信总线技术详解与应用场景分析
人工智能·机器学习·自动驾驶·通信总线
winds~1 小时前
自动驾驶-问题笔记-待解决
人工智能·笔记·自动驾驶
学步_技术1 小时前
自动驾驶系列—LDW(车道偏离预警):智能驾驶的安全守护者
人工智能·安全·自动驾驶·ldw
青云交1 小时前
大数据新视界 --大数据大厂之 Kafka 性能优化的进阶之道:应对海量数据的高效传输
大数据·数据库·人工智能·性能优化·kafka·数据压缩·分区策略·磁盘 i/o
SEU-WYL1 小时前
基于深度学习的视频摘要生成
人工智能·深度学习·音视频
人工智能技术咨询.2 小时前
张雪峰谈人工智能技术应用专业的就业前景!
人工智能·学习·计算机视觉·语言模型