PyTorch实现二分类(单特征输出+单层神经网络)

二分类问题的实现方法,核心是把线性回归的 "连续值输出" 改成 "0/1 类别概率输出"。最基础常用的二分类模型基于逻辑回归(Logistic Regression)。

线性回归实现方式:PyTorch实现线性回归-CSDN博客

二分类本质上也是一种回归(Regression)问题,在上述线性回归的基础上修改就可以实现。下面是线性回归与二分类任务的差异:

|--------|-------------------|------------------------------|
| 环节 | 线性回归(回归任务) | 二分类(分类任务) |
| 输出目标 | 连续数值(如 y=2x 的预测值) | 0/1 类别概率(0≤P≤1) |
| 核心激活函数 | 无(直接输出线性结果) | Sigmoid(把线性输出映射到 0-1) |
| 损失函数 | MSELoss(均方误差) | BCELoss(二元交叉熵损失) |
| 预测逻辑 | 直接取输出值 | 概率 > 0.5 归为 1 类,≤0.5 归为 0 类 |

1. 准备数据集(Prepare Dataset)

对比线性回归,数据格式还是 Tensor,但标签y_data是0/1 离散值,这是分类任务的核心特征。

python 复制代码
import torch

# 构造数据集:特征x(学分),标签y(0=不及格,1=及格)
# 样本:[1.0], [2.0], [3.0] → 标签:0,0,1
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])

2. 设计模型(Design model)

python 复制代码
class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super().__init__()
        self.linear = torch.nn.Linear(1, 1)
    
    def forward(self, x):
        # 核心:线性输出 + Sigmoid激活 → 映射到0-1概率
        y_pred = torch.sigmoid(self.linear(x))
        return y_pred


model = LogisticRegressionModel()
  • Sigmoid函数公式:
  • forward 中增加torch.sigmoid():** 把线性层的 "任意实数输出" 压缩到0~1 区间,这个值就是 "样本属于 1 类的概率"。

3. 构造损失函数(Construct Loss)

python 复制代码
criterion = nn.BCELoss(reduction='sum')
  • BCELoss:二元交叉熵损失,是二分类的专用损失。

关于二元交叉熵损失函数的介绍,参考文章PyTorch_conda-CSDN博客中《nn.BCELoss(二元交叉熵损失)》一节。

4. 构造优化器(Construct Optimizer)

python 复制代码
optimizer = torch.optim.SGD(model.parameters(), lr=0.0001) 

5. 训练循环(Training Cycle)

python 复制代码
for epoch in range(1000):
    y_pred = model(x_data)  # 前向传播(计算预测值)
    loss = criterion(y_pred, y_data)  # 计算损失值
    print(epoch, loss.item())
 
    optimizer.zero_grad()  # 梯度清零
    loss.backward()  # 反向传播计算梯度
    optimizer.step()  # 更新参数

完整代码实例

python 复制代码
import torch
import torch.nn as nn

x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])


class LogisticRegressionModel(nn.Module):
    def __init__(self):
        super().__init__()
        self.linear = nn.Linear(1, 1)
    
    def forward(self, x):
        return torch.sigmoid(self.linear(x))

model = LogisticRegressionModel()

criterion = nn.BCELoss(reduction='sum')
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)


for epoch in range(10000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
 
    if epoch % 1000 == 0:
        print(f"Epoch: {epoch}, Loss: {loss.item():.4f}")
    
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()


x_test = torch.Tensor([[4.0]])
y_test_pred = model(x_test)
print("\n测试结果:")
print('y_pred = ', y_test_pred.data)

# 查看模型参数
print(f"\n模型权重:{model.linear.weight.item():.6f}")
print(f"模型偏置:{model.linear.bias.item():.6f}")
相关推荐
深小乐1 分钟前
从 AI Skills 学实战技能(六):让 AI 帮你总结网页、PDF、视频
人工智能
宝贝儿好8 分钟前
【LLM】第二章:文本表示:词袋模型、小案例:基于文本的推荐系统(酒店推荐)
人工智能·python·深度学习·神经网络·自然语言处理·机器人·语音识别
周末程序猿26 分钟前
详解 karpathy 的 microgpt:实现一个浏览器运行的 gpt
人工智能·llm
ACP广源盛1392462567332 分钟前
破局 Type‑C 切换器痛点@ACP#GSV6155+LH3828/GSV2221+LH3828 黄金方案
c语言·开发语言·网络·人工智能·嵌入式硬件·计算机外设·电脑
xixixi7777740 分钟前
通信领域的“中国速度”:从5G-A到6G,从地面到星空
人工智能·5g·安全·ai·fpga开发·多模态
Dfreedom.1 小时前
计算机视觉全景图
人工智能·算法·计算机视觉·图像算法
EasyDSS1 小时前
智能会议管理系统/私有化视频会议平台EasyDSS私有化部署构建企业级私域视频全场景解决方案
人工智能·音视频
zhanghongbin011 小时前
成本追踪:AI API 成本计算与预算管理
人工智能
YBAdvanceFu2 小时前
从零构建智能体:深入理解 ReAct Plan Solve Reflection 三大经典范式
人工智能·python·机器学习·数据挖掘·多智能体·智能体
啦啦啦在冲冲冲2 小时前
多头注意力机制的优势是啥,遇到长文本的情况,可以从哪些情况优化呢
人工智能·深度学习