PyTorch实现二分类(单特征输出+单层神经网络)

二分类问题的实现方法,核心是把线性回归的 "连续值输出" 改成 "0/1 类别概率输出"。最基础常用的二分类模型基于逻辑回归(Logistic Regression)。

线性回归实现方式:PyTorch实现线性回归-CSDN博客

二分类本质上也是一种回归(Regression)问题,在上述线性回归的基础上修改就可以实现。下面是线性回归与二分类任务的差异:

|--------|-------------------|------------------------------|
| 环节 | 线性回归(回归任务) | 二分类(分类任务) |
| 输出目标 | 连续数值(如 y=2x 的预测值) | 0/1 类别概率(0≤P≤1) |
| 核心激活函数 | 无(直接输出线性结果) | Sigmoid(把线性输出映射到 0-1) |
| 损失函数 | MSELoss(均方误差) | BCELoss(二元交叉熵损失) |
| 预测逻辑 | 直接取输出值 | 概率 > 0.5 归为 1 类,≤0.5 归为 0 类 |

1. 准备数据集(Prepare Dataset)

对比线性回归,数据格式还是 Tensor,但标签y_data是0/1 离散值,这是分类任务的核心特征。

python 复制代码
import torch

# 构造数据集:特征x(学分),标签y(0=不及格,1=及格)
# 样本:[1.0], [2.0], [3.0] → 标签:0,0,1
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])

2. 设计模型(Design model)

python 复制代码
class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super().__init__()
        self.linear = torch.nn.Linear(1, 1)
    
    def forward(self, x):
        # 核心:线性输出 + Sigmoid激活 → 映射到0-1概率
        y_pred = torch.sigmoid(self.linear(x))
        return y_pred


model = LogisticRegressionModel()
  • Sigmoid函数公式:
  • forward 中增加torch.sigmoid():** 把线性层的 "任意实数输出" 压缩到0~1 区间,这个值就是 "样本属于 1 类的概率"。

3. 构造损失函数(Construct Loss)

python 复制代码
criterion = nn.BCELoss(reduction='sum')
  • BCELoss:二元交叉熵损失,是二分类的专用损失。

关于二元交叉熵损失函数的介绍,参考文章PyTorch_conda-CSDN博客中《nn.BCELoss(二元交叉熵损失)》一节。

4. 构造优化器(Construct Optimizer)

python 复制代码
optimizer = torch.optim.SGD(model.parameters(), lr=0.0001) 

5. 训练循环(Training Cycle)

python 复制代码
for epoch in range(1000):
    y_pred = model(x_data)  # 前向传播(计算预测值)
    loss = criterion(y_pred, y_data)  # 计算损失值
    print(epoch, loss.item())
 
    optimizer.zero_grad()  # 梯度清零
    loss.backward()  # 反向传播计算梯度
    optimizer.step()  # 更新参数

完整代码实例

python 复制代码
import torch
import torch.nn as nn

x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])


class LogisticRegressionModel(nn.Module):
    def __init__(self):
        super().__init__()
        self.linear = nn.Linear(1, 1)
    
    def forward(self, x):
        return torch.sigmoid(self.linear(x))

model = LogisticRegressionModel()

criterion = nn.BCELoss(reduction='sum')
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)


for epoch in range(10000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
 
    if epoch % 1000 == 0:
        print(f"Epoch: {epoch}, Loss: {loss.item():.4f}")
    
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()


x_test = torch.Tensor([[4.0]])
y_test_pred = model(x_test)
print("\n测试结果:")
print('y_pred = ', y_test_pred.data)

# 查看模型参数
print(f"\n模型权重:{model.linear.weight.item():.6f}")
print(f"模型偏置:{model.linear.bias.item():.6f}")
相关推荐
勾股导航3 小时前
K-means
人工智能·机器学习·kmeans
liliangcsdn3 小时前
Diff2Flow中扩散和流匹配的对齐探索
人工智能
SmartBrain3 小时前
战略洞察:以AI为代表的第四次工业革命
人工智能·语言模型·aigc
一个处女座的程序猿3 小时前
AI之Agent之VibeCoding:《Vibe Coding Kills Open Source》翻译与解读
人工智能·开源·vibecoding·氛围编程
Jay Kay3 小时前
GVPO:Group Variance Policy Optimization
人工智能·算法·机器学习
风指引着方向3 小时前
归约操作优化:ops-math 的 Sum/Mean/Max 实现
人工智能·wpf
机器之心3 小时前
英伟达世界模型再进化,一个模型驱动所有机器人!机器人的GPT时刻真正到来
人工智能·openai
纯爱掌门人3 小时前
终焉轮回里,藏着 AI 与人类的答案
前端·人工智能·aigc
人工智能AI技术4 小时前
Transformer:大模型的“万能骨架”
人工智能