利用pytorch两层线性网络对titanic数据集进行分类(kaggle)

利用pytorch两层线性网络对titanic数据集进行分类

最近在看pytorch的入门课程,做了一下在kaggle网站上的作业,用的是titanic数据集,因为想搭一下神经网络,所以数据加载部分简单的把训练集和测试集中有缺失值的列还有含有字符串的列去除了,加入了DataLoader模块,其实这个数据集很小,用不到,本人还没入门,小白一枚。

python 复制代码
import torch 
from torch.utils.data import Dataset
from torch.utils.data import DataLoader
import numpy as np
from torchvision import datasets
from torchvision import transforms
import pandas as pd

class titanicDataset(Dataset):
    def __init__(self,filepath):
        xy=np.loadtxt(filepath,delimiter=',',skiprows=1,usecols=[1,2,7,8],dtype=np.float32)
        self.len=xy.shape[0]
        # print(self.len)
        self.y_data=torch.from_numpy(xy[:,[0]])
        self.x_data=torch.from_numpy(xy[:,1:])
        
    def __getitem__(self,index):#获取索引元素 
        return self.x_data[index],self.y_data[index]
    def __len__(self):
        return self.len
dataset=titanicDataset('./pytorch/dataset/titanic/train.csv')
train_loader=DataLoader(dataset=dataset,batch_size=32,shuffle=True,num_workers=0)

# print(dataset.x_data,dataset.y_data)
test_loader=DataLoader(dataset=np.loadtxt('./pytorch/dataset/titanic/test.csv',delimiter=',',skiprows=1,usecols=[1,6,7],dtype=np.float32),batch_size=32,shuffle=False,num_workers=0)
print(next(iter(test_loader)))

class Model(torch.nn.Module):
    def __init__(self):
        super(Model,self).__init__()
        # self.linear1=torch.nn.Linear(4,3)
        self.linear2=torch.nn.Linear(3,2)
        self.linear3=torch.nn.Linear(2,1)
        self.sigmoid=torch.nn.Sigmoid()
    def forward(self,x):
        # x=self.sigmoid(self.linear1(x))
        x=self.sigmoid(self.linear2(x))
        x=self.sigmoid(self.linear3(x))
        return x
model=Model()
criterion=torch.nn.BCELoss(size_average=True)
optimizer=torch.optim.SGD(model.parameters(),lr=0.1,momentum=0.9)
for epoch in range(10000):
    acc_num=0
    for i,data in enumerate(train_loader,0):
        #1.Prepare data
        inputs,labels=data
        # print(inputs.shape[0])
        #2.Forward
        y_pred=model(inputs)
        loss=criterion(y_pred,labels)
        # print(epoch,i,loss.item())
        #3.Backward
        optimizer.zero_grad()
        loss.backward()
        #4.Update
        optimizer.step()
        y_pred_label=torch.where(y_pred>0.5,torch.tensor([1.0]),torch.tensor([0.0]))
        acc_num+=torch.eq(y_pred_label,labels).sum().item()
    # print(acc_num,len(dataset),len(train_loader.dataset))
    acc=acc_num/len(dataset)
print(acc)
# print(test_loader)
# print(test_loader.dataset.shape)
out = model(torch.tensor(test_loader.dataset))
y_pred = torch.where(out>0.5,torch.tensor([1.0]),torch.tensor([0.0]))[:,0]
print(y_pred)
print(pd.Series(y_pred))
id=pd.read_csv('./pytorch/dataset/titanic/test.csv',usecols=['PassengerId']).iloc[:,0]
# print(type(id))

pd.DataFrame({'PassengerId':id,'Survived':pd.Series(y_pred,dtype=int)}).to_csv('pred.csv',index=None)
a=pd.DataFrame([id,pd.Series(y_pred)])
print(a)
# print(y_pred[-10:])


# for x in test_loader:
#     print(x.shape)
#     out = model(x)
#     y_pred = torch.where(out>0.5,torch.tensor([1.0]),torch.tensor([0.0]))
# print(y_pred)
相关推荐
小小工匠1 分钟前
Spring AI RAG - 06 敏感词过滤与内容安全防护
人工智能·安全·spring
189228048613 分钟前
NV265固态MT29F32T08GSLBHL8-24QMES:B
大数据·服务器·人工智能·科技·缓存
IT_陈寒11 分钟前
Vue的v-for为什么不加key也能工作?我差点翻车
前端·人工智能·后端
穗余18 分钟前
什么是模型幻觉?为什么会出现? 模型幻觉是阻碍落地的最重要的原因。
人工智能·机器学习
lightinging29 分钟前
五款主流AI智能体多维对比
人工智能
love530love41 分钟前
ComfyUI MediaPipe 猴子补丁终极完善版:补全上下文管理与姿态检测兼容
人工智能·windows·python·comfyui·protobuf·mediapipe
Bruce_Liuxiaowei41 分钟前
AI攻防时间差:当漏洞发现速度碾压修复速度— 聚焦技术核心
网络·人工智能·网络安全·ai·系统安全
悟纤42 分钟前
AI生成MV
人工智能·seedance2.0·ai mv·一键mv
Clark111 小时前
手写LLM推理框架时,内存管理99%的人会踩的坑 | TFFInfer解析(五)——Tensor 张量系统与内存抽象(下)
人工智能
逸风尊者1 小时前
Robotaxi 行业日报 | 2026-05-17
人工智能