基于飞浆resnet50的102分类

目录

1.数据预处理

2.数据导入

3.模型导入

4.批训练

[5. 输出结果](#5. 输出结果)

6.结果参考


1.数据预处理

python 复制代码
T=transforms.Compose([
    transforms.Resize((250,250)),
    transforms.RandomCrop(size=224),
    transforms.RandomHorizontalFlip(0.5),
    transforms.RandomRotation(degrees=15),
    transforms.ColorJitter(brightness=0.2, contrast=0.2, saturation=0.2),
    transforms.ToTensor(),
    transforms.Normalize(mean=[0.46010968,0.4837371,0.49916607],std=[0.25398722,0.25408414,0.25931123])
])

2.数据导入

python 复制代码
datas=[]
labels=[]
train_path='data/data146107/dataset/train.txt'
eval_path='data/data146107/dataset/test.txt'
base='data/data146107/dataset/images/'
contents=[]
with open(train_path,mode='r',encoding='utf-8') as f:
    contents=f.read().split('\n')
for content in contents:
    if content=='':continue
    img=content.split('\t')[0]
    label=content.split('\t')[1]
    data=np.array(T(cv2.imread(base+img)))
    datas.append(data)
    labels.append(int(label))
datas=np.array(datas)
labels=np.array(labels)

3.模型导入

python 复制代码
model=resnet50(pretrained=True,num_classes=102)
criterion=paddle.nn.CrossEntropyLoss()
optimizer=paddle.optimizer.Adam(learning_rate=0.0001,parameters=model.parameters(),weight_decay=0.001)

4.批训练

python 复制代码
epochs=30
batch_size=125
dataset=TensorDataset([datas,labels])
dataloader=DataLoader(dataset,shuffle=True,batch_size=batch_size)
total_loss=[]
for epoch in range(epochs):
    for batch_data,batch_label in dataloader:
        batch_data=paddle.to_tensor(batch_data,dtype='float32')
        batch_label=paddle.to_tensor(batch_label,dtype='int64')
        output=model(batch_data)
        loss=criterion(output,batch_label)
        print(epoch,loss.numpy()[0])
        total_loss.append(loss.numpy()[0])
        optimizer.clear_grad()
        loss.backward()
        optimizer.step()
paddle.save({'model':model.state_dict(),'optimizer':optimizer.state_dict()},'checkpoint.param')
plt.plot(range(len(total_loss)),total_loss)
plt.show()

5. 输出结果

python 复制代码
contents=[]
batch_size=64
with open('data/data146107/dataset/test.txt',mode='r',encoding='utf-8') as f:
    contents=f.read().split('\n')
evals=[]
imgs=[]
base='data/data146107/dataset/images/'
for content in contents:
    if content=='':continue
    img=content
    data=np.array(T(cv2.imread(base+img)))
    evals.append(data)
    imgs.append(img)
evals=np.array(evals)
imgs=np.array(imgs)
dataset=TensorDataset([evals,imgs])
dataloader=DataLoader(dataset,shuffle=True,batch_size=batch_size)
with open('result.txt',mode='w',encoding='utf-8'):
    pass
with paddle.no_grad():
    for batch_data,batch_img in dataloader:
        batch_data=paddle.to_tensor(batch_data,dtype='float32')
        output=model(batch_data)
        output=np.array(paddle.argmax(output,axis=1))
        with open('result.txt',mode='a',encoding='utf-8') as f:
            for img,ans in zip(batch_img,output):
                f.write(img+'\t'+str(ans)+'\n')

6.结果参考

loss收敛到0.001 ,准确率到达93%左右

相关推荐
山石网科12 分钟前
2025 RSAC|自主式 GenAI 安全智能体(Agent)开启防御新纪元
网络·人工智能
jndingxin15 分钟前
OpenCV 图形API(66)图像结构分析和形状描述符------将一条直线拟合到三维点集上函数fitLine3D()
人工智能·opencv·计算机视觉
说私域16 分钟前
技术驱动与模式创新:开源AI大模型与S2B2C商城重构零售生态
人工智能·小程序·重构·开源·零售
诗意地回家1 小时前
阿里开源Qwen3:大语言模型的新突破
人工智能·ai
不吃香菜?1 小时前
贝叶斯算法实战:从原理到鸢尾花数据集分类
算法·分类·数据挖掘
Johny_Zhao2 小时前
Ubuntu堡垒机搭建与设备管理指南
linux·网络·人工智能·信息安全·云计算·yum源·系统运维·teleport
deephub2 小时前
加速LLM大模型推理,KV缓存技术详解与PyTorch实现
人工智能·pytorch·深度学习·缓存·大语言模型
月巴月巴白勺合鸟月半2 小时前
语音识别质量的跟踪
人工智能·语音识别·健康医疗
新加坡内哥谈技术3 小时前
Mem0.ai研究团队开发的全新记忆架构系统“Mem0”正式发布
人工智能·团队开发
焱童鞋3 小时前
贪吃蛇游戏demo
人工智能·python·pygame