拿来练手,大神请绕道。
1.网上的代码大多都写在一个函数里,但是其实很多好论文都是把网络,数据训练等分开写的。
2.分开写就是有一个需要注意的事情,就是要import 要用到的文件中的模型或者变量等。
3.全连接的回归也写了,有空再上传吧。
4.一般都是先写data或者model
python
import torch
import torch.nn as nn
import torch.nn.functional as F
#nn.func这个里面很多功能其实nn里就有,可以不导入,而且后面新的版本的torch也取消了cc.functional里面的部分函数
#定义网络,需要定义两部分,一部分就是初始化,另一部分就是数据流
class FCNet(nn.Module):
def __init__(self):
super(FCNet,self).__init__()
self.fc1 = nn.Linear(8,16)
#初始的这个8,要和你的数据的特征数一样才行,后面的数可以随意设置,但是不要太多,容易过拟合
# self.fc2 = nn.Linear(50,20)
self.fc3 = nn.Linear(16,2)#二分类,输出2,其实1也可以的
#最后的就是分类数,因为用的sigmod和交叉熵损失,就不用额外加softmax了,多分类要用softmax
self.sig = nn.Sigmoid()
# self.drop = nn.Dropout(0.3)
#可以把用到的放在这里,也可以用nn.Sequential()放在一起,这样后面的话就可以直接用这个,不用写那么多了
def forward(self,x):
x = self.sig(self.fc1(x))
# x = self.sig(self.fc2(x))
x = self.sig(self.fc3(x))
return x
#就是x要怎么在网络中走,要写一遍
#可以自己输出测试一下看看网络是不是自己想的那样,在真的调用的时候再屏蔽掉
# net= FCNet()
# print(net)
首先看看数据是是啥样,outcome就是有没有糖尿病
其实可以手动把csv分成train和test
python
import pandas as pd
from sklearn.model_selection import train_test_split
import torch
from torch.utils.data import Dataset
from torch.utils.data import DataLoader
import numpy as np
#导入pands是为了读数据,当然使用numpy也可以读得,sklearn是为了把训练数据分为训练和验证集
data = pd.read_csv('./train.csv')
#就是把对应的数据哪出来,x代表的是feature上的data,y代表的是label,因为pd可以读到最上面的标签,所以从第2行(i=1)开始读就行
x = data.iloc[1:,:-1]
y = data.iloc[1:,[-1]]
#可以输出看看数据对不对,x中不应该包含labels
# print(x)
# print(y)
#test_size就是划分的比例,后面的是种子,意思是每次运行这个函数时候,0.8就是那些,0.2也还是每次一样,如果想要不一样,只要每次运行这个函数时候换个值就行
x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.2,random_state=0)
#print(x_train,y_test)
# print(x_test,y_test)
#给数据进行归一化,可以用很多方法,我用最简单的归一到-1到1
x_train = x_train.apply(lambda x: (x - x.mean()) / (x.std()))
x_test = x_test.apply(lambda x: (x - x.mean()) / (x.std()))
#写dataset可以用两种方法,第一种就是 每一个数据自己单独处理,第二个就是要自己重写dataset类
#1.
# 可以使用分别的处理,把数据(首先转换为tensor,或者把dataframe.valus拿出来才能转换为tensor)转换为tensor并且数据类型转换为float32,如果测试没有真值,需要单独转换
# x_train = torch.tensor(np.array(x_train),dtype=torch.float32)
# y_train = torch.tensor(np.array(y_train),dtype=torch.float32)
# x_test = torch.tensor(np.array(x_test),dtype=torch.float32)
# y_test = torch.tensor(np.array(x_test),dtype=torch.float32)
# train_dataset = torch.utils.data.TensorDataset(x_train,y_train)
# test_dataset = torch.utils.data.TensorDataset(x_test,y_test)
#2.也可以直接重写dataset
class dataset(Dataset):
def __init__(self, x, y):
#把值拿出来或者变为np类型才能转换为tensor
# self.data = torch.tensor(x.values,dtype=torch.float32)
# self.labels = torch.tensor(y.values,dtype=torch.float32)
self.data = torch.tensor(np.array(x),dtype=torch.float32)
self.labels = torch.tensor(np.array(y),dtype=torch.float32)
def __len__(self):
return len(self.data)
def __getitem__(self,idx):
return self.data[idx],self.labels[idx]
#应该返回的是list类型,不是字典也不是set
BATCH_SIZE = 64
#验证集一般不用shuffle
train_dataset = dataset(x_train,y_train)
test_dataset = dataset(x_test,y_test)
# print(train_dataset)
train_loader = DataLoader(train_dataset,batch_size=BATCH_SIZE,shuffle=True)
test_lodaer = DataLoader(test_dataset,batch_size=BATCH_SIZE,shuffle=False)
# print(train_loader)
然后就可以写train或者test了,其实test和train一样
python
from Model import FCNet
import torch
import torch.nn as nn
import torch.optim as optim
import matplotlib.pyplot as plt
import data
#导入要调用的net和data,也可以from data import xxx 这样可以直接用xxx,现在的这个需要用data.xxx
#看自己的设备,最好用gpu来跑
if (torch.cuda.is_available()):
my_device = torch.device('cuda')
else:
my_device = torch.device('cpu')
print(my_device)
#实例化一个net,并且放到gpu上,需要放到gpu上的有inputs,labels,net,loss
net = FCNet().to(my_device)
# print(net)
#定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
#一开始是不需要weight_decay(也就是l2正则化),可以等出现过拟合在用,也可以先用上
optimizer = optim.Adam(net.parameters(),lr=0.001,weight_decay=0.01)
epochs = 600
#定义train,因为一边训练一边验证,所有就把两个loader都放进去了,不过写法很多,也可以不放dataloader,放epoches也可以
def train(dataloader,valloader):
losses = []
acces = []
losses_val = []
for epoch in range(epochs):
loss_batch = 0
for i,data in enumerate(dataloader):
#需要注意的,这里的inputs和labels和之前定义的dataset相关,需要是list类型才可以
inputs,labels = data
#print(data)可以打印出来查看一下
inputs,labels = inputs.to(my_device),labels.to(my_device)
optimizer.zero_grad()#每次要梯度清零
outputs = net(inputs)
#print(outputs)
#model的最后一层是sigmod
#labels的格式需要注意,因为现在是[[1],[0],[1],[1]..]这样得格式,无法放到交叉熵了,需要时[0,1,1,1...]这样得格式才行
loss = criterion(outputs,labels.squeeze(1).long()).to(my_device)
#print(labels.squeeze(1).long())
loss.backward()
optimizer.step()
loss_batch += loss.item()
length = i
#验证的时候不用反向传播和梯度下降这些
net.eval()
count = 0
right = 0
loss_batch_val =0
with torch.no_grad():
for j,data2 in enumerate(valloader):
val_inputs,val_labels = data2
val_inputs,val_labels = val_inputs.to(my_device),val_labels.squeeze(1).long().to(my_device)
val_outputs = net(val_inputs)
loss_val = criterion(val_outputs,val_labels)
#因为net的最后一层是2,所以输出的是2维的【0.6,0.4】这种,但是这个可以直接放到交叉熵中
#------中放的是概率,pred中放的是预测的类别,算损失还是要用outputs,但是算准确率就是用pred和真实labels相比了
_,pred = torch.max(val_outputs,1)
#print(pred)
right = (pred == val_labels).sum().item()
count = len(val_labels)
acc = right/count
loss_batch_val += loss_val.item()
length2 = j
if epoch % 10 == 9:
print('train_epoch:',epoch+1,'train_loss:',loss_batch/length,'val_loss:',loss_batch_val/length2,'acc:',acc)
losses.append(loss_batch/length)
acces.append(acc)
losses_val.append(loss_batch_val/length2)
#可以画一些曲线,输出一些值
plt.plot(range(60),losses,color ='blue',label ='train_loss')
plt.plot(range(60),acces, color ='red',label ='val_acc')
plt.plot(range(60),losses_val,color ='yellow',label ='val_loss')
plt.legend()
plt.show()
torch.save(net.state_dict(),'./weights_epoch1000.pth')
#保存参数
train(data.train_loader,data.test_lodaer)
最后看一下结果,最后的准确率在85%左右,还可以,毕竟数据不多,也是简单的全连接。
在这个结果之前出现了很多问题,比如波动很大,损失先降后升等问题,找个有问题的图
下面是一些总结:
1.跳跃很大,波动:增大batch_size,减小lr。
2.降低过拟合:
a.降低模型的复杂程度,但是修改具体的神经元个数,因为这个网络本身就不大,所有没啥用,模型非常大没准会有用。
b.batchsize增大,lr减小是有效的。
c.输入数据进行归一化是有用的,归一化之后lr可以调大一点,收敛变快了。
d.L2正则化是有用的,很有用。dropout应该也有用,但是模型本来就很小,我试了试没啥差别。而且有正则化之后可以加速收敛,lr可以稍微调大一点,较少的epoches也可以收敛了,而已acc也会更高一点,稳定一点。