PyTorch实现二分类(单特征输出+单层神经网络)

二分类问题的实现方法,核心是把线性回归的 "连续值输出" 改成 "0/1 类别概率输出"。最基础常用的二分类模型基于逻辑回归(Logistic Regression)。

线性回归实现方式:PyTorch实现线性回归-CSDN博客

二分类本质上也是一种回归(Regression)问题,在上述线性回归的基础上修改就可以实现。下面是线性回归与二分类任务的差异:

|--------|-------------------|------------------------------|
| 环节 | 线性回归(回归任务) | 二分类(分类任务) |
| 输出目标 | 连续数值(如 y=2x 的预测值) | 0/1 类别概率(0≤P≤1) |
| 核心激活函数 | 无(直接输出线性结果) | Sigmoid(把线性输出映射到 0-1) |
| 损失函数 | MSELoss(均方误差) | BCELoss(二元交叉熵损失) |
| 预测逻辑 | 直接取输出值 | 概率 > 0.5 归为 1 类,≤0.5 归为 0 类 |

1. 准备数据集(Prepare Dataset)

对比线性回归,数据格式还是 Tensor,但标签y_data是0/1 离散值,这是分类任务的核心特征。

python 复制代码
import torch

# 构造数据集:特征x(学分),标签y(0=不及格,1=及格)
# 样本:[1.0], [2.0], [3.0] → 标签:0,0,1
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])

2. 设计模型(Design model)

python 复制代码
class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super().__init__()
        self.linear = torch.nn.Linear(1, 1)
    
    def forward(self, x):
        # 核心:线性输出 + Sigmoid激活 → 映射到0-1概率
        y_pred = torch.sigmoid(self.linear(x))
        return y_pred


model = LogisticRegressionModel()
  • Sigmoid函数公式:
  • forward 中增加torch.sigmoid():** 把线性层的 "任意实数输出" 压缩到0~1 区间,这个值就是 "样本属于 1 类的概率"。

3. 构造损失函数(Construct Loss)

python 复制代码
criterion = nn.BCELoss(reduction='sum')
  • BCELoss:二元交叉熵损失,是二分类的专用损失。

关于二元交叉熵损失函数的介绍,参考文章PyTorch_conda-CSDN博客中《nn.BCELoss(二元交叉熵损失)》一节。

4. 构造优化器(Construct Optimizer)

python 复制代码
optimizer = torch.optim.SGD(model.parameters(), lr=0.0001) 

5. 训练循环(Training Cycle)

python 复制代码
for epoch in range(1000):
    y_pred = model(x_data)  # 前向传播(计算预测值)
    loss = criterion(y_pred, y_data)  # 计算损失值
    print(epoch, loss.item())
 
    optimizer.zero_grad()  # 梯度清零
    loss.backward()  # 反向传播计算梯度
    optimizer.step()  # 更新参数

完整代码实例

python 复制代码
import torch
import torch.nn as nn

x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])


class LogisticRegressionModel(nn.Module):
    def __init__(self):
        super().__init__()
        self.linear = nn.Linear(1, 1)
    
    def forward(self, x):
        return torch.sigmoid(self.linear(x))

model = LogisticRegressionModel()

criterion = nn.BCELoss(reduction='sum')
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)


for epoch in range(10000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
 
    if epoch % 1000 == 0:
        print(f"Epoch: {epoch}, Loss: {loss.item():.4f}")
    
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()


x_test = torch.Tensor([[4.0]])
y_test_pred = model(x_test)
print("\n测试结果:")
print('y_pred = ', y_test_pred.data)

# 查看模型参数
print(f"\n模型权重:{model.linear.weight.item():.6f}")
print(f"模型偏置:{model.linear.bias.item():.6f}")
相关推荐
万里鹏程转瞬至35 分钟前
InternVL(1~3.5版本)多模型大模型训练中的数据集构造总结
人工智能
badhope5 小时前
Mobile-Skills:移动端技能可视化的创新实践
开发语言·人工智能·git·智能手机·github
吴佳浩7 小时前
GPU 编号进阶:CUDA\_VISIBLE\_DEVICES、多进程与容器化陷阱
人工智能·pytorch·python
吴佳浩7 小时前
GPU 编号错乱踩坑指南:PyTorch cuda 编号与 nvidia-smi 不一致
人工智能·pytorch·nvidia
小饕7 小时前
苏格拉底式提问对抗315 AI投毒:实操指南
网络·人工智能
卧蚕土豆7 小时前
【有啥问啥】OpenClaw 安装与使用教程
人工智能·深度学习
GoCodingInMyWay7 小时前
开源好物 26/03
人工智能·开源
AI科技星7 小时前
全尺度角速度统一:基于 v ≡ c 的纯推导与验证
c语言·开发语言·人工智能·opencv·算法·机器学习·数据挖掘
zhangfeng11338 小时前
Windows 的 Git Bash 中使用 md5sum 命令非常简单 md5做文件完整性检测 WinRAR 可以计算文件的 MD5 值
人工智能·windows·git·bash
monsion8 小时前
OpenCode 学习指南
人工智能·vscode·架构