PyTorch实现二分类(单特征输出+单层神经网络)

二分类问题的实现方法,核心是把线性回归的 "连续值输出" 改成 "0/1 类别概率输出"。最基础常用的二分类模型基于逻辑回归(Logistic Regression)。

线性回归实现方式:PyTorch实现线性回归-CSDN博客

二分类本质上也是一种回归(Regression)问题,在上述线性回归的基础上修改就可以实现。下面是线性回归与二分类任务的差异:

|--------|-------------------|------------------------------|
| 环节 | 线性回归(回归任务) | 二分类(分类任务) |
| 输出目标 | 连续数值(如 y=2x 的预测值) | 0/1 类别概率(0≤P≤1) |
| 核心激活函数 | 无(直接输出线性结果) | Sigmoid(把线性输出映射到 0-1) |
| 损失函数 | MSELoss(均方误差) | BCELoss(二元交叉熵损失) |
| 预测逻辑 | 直接取输出值 | 概率 > 0.5 归为 1 类,≤0.5 归为 0 类 |

1. 准备数据集(Prepare Dataset)

对比线性回归,数据格式还是 Tensor,但标签y_data是0/1 离散值,这是分类任务的核心特征。

python 复制代码
import torch

# 构造数据集:特征x(学分),标签y(0=不及格,1=及格)
# 样本:[1.0], [2.0], [3.0] → 标签:0,0,1
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])

2. 设计模型(Design model)

python 复制代码
class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super().__init__()
        self.linear = torch.nn.Linear(1, 1)
    
    def forward(self, x):
        # 核心:线性输出 + Sigmoid激活 → 映射到0-1概率
        y_pred = torch.sigmoid(self.linear(x))
        return y_pred


model = LogisticRegressionModel()
  • Sigmoid函数公式:
  • forward 中增加torch.sigmoid():** 把线性层的 "任意实数输出" 压缩到0~1 区间,这个值就是 "样本属于 1 类的概率"。

3. 构造损失函数(Construct Loss)

python 复制代码
criterion = nn.BCELoss(reduction='sum')
  • BCELoss:二元交叉熵损失,是二分类的专用损失。

关于二元交叉熵损失函数的介绍,参考文章PyTorch_conda-CSDN博客中《nn.BCELoss(二元交叉熵损失)》一节。

4. 构造优化器(Construct Optimizer)

python 复制代码
optimizer = torch.optim.SGD(model.parameters(), lr=0.0001) 

5. 训练循环(Training Cycle)

python 复制代码
for epoch in range(1000):
    y_pred = model(x_data)  # 前向传播(计算预测值)
    loss = criterion(y_pred, y_data)  # 计算损失值
    print(epoch, loss.item())
 
    optimizer.zero_grad()  # 梯度清零
    loss.backward()  # 反向传播计算梯度
    optimizer.step()  # 更新参数

完整代码实例

python 复制代码
import torch
import torch.nn as nn

x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])


class LogisticRegressionModel(nn.Module):
    def __init__(self):
        super().__init__()
        self.linear = nn.Linear(1, 1)
    
    def forward(self, x):
        return torch.sigmoid(self.linear(x))

model = LogisticRegressionModel()

criterion = nn.BCELoss(reduction='sum')
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)


for epoch in range(10000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
 
    if epoch % 1000 == 0:
        print(f"Epoch: {epoch}, Loss: {loss.item():.4f}")
    
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()


x_test = torch.Tensor([[4.0]])
y_test_pred = model(x_test)
print("\n测试结果:")
print('y_pred = ', y_test_pred.data)

# 查看模型参数
print(f"\n模型权重:{model.linear.weight.item():.6f}")
print(f"模型偏置:{model.linear.bias.item():.6f}")
相关推荐
飞哥数智坊4 小时前
我的“龙虾”罢工了!正好对比下GLM、MiniMax、Kimi 3家谁更香
人工智能
风象南5 小时前
很多人说,AI 让技术平权了,小白也能乱杀老师傅 ?
人工智能·后端
董董灿是个攻城狮6 小时前
大模型连载1:了解 Token
人工智能
RoyLin8 小时前
沉睡三十年的标准:HTTP 402、生成式 UI 与智能体原生软件的时代
人工智能
needn10 小时前
TRAE为什么要发布SOLO版本?
人工智能·ai编程
毅航11 小时前
自然语言处理发展史:从规则、统计到深度学习
人工智能·后端
前端付豪11 小时前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
ursazoo11 小时前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github
_志哥_15 小时前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit15 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能