机器学习(7)逻辑回归及其成本函数

一、使用线性回归进行分类任务

在分类任务中(例如判断肿瘤是良性(0)还是恶性(1) ),如果直接使用线性回归模型

则预测结果可能超出区间 [0,1],而概率必须在这个区间内。因此,我们需要一个能够将任意实数映射到 [0,1] 的函数------这就是Sigmoid函数(逻辑函数)


二、逻辑回归(Logistic Regression)

1. 肿瘤分类案例

我们的目标是预测"肿瘤为恶性"的概率。

  • 设 y=0:肿瘤良性

  • y=1:肿瘤恶性

2. 构建逻辑函数

逻辑回归的核心公式为:

其中:

Sigmoid函数 g(z) 的作用是把线性结果 z 转换为一个范围在 (0,1) 之间的概率值。

例如:


三、边界决策(Decision Boundary)

在逻辑回归中,我们通常选择0.5作为分类边界:

  • ,表示恶性概率为 90%,则预测为 1。

  • ,表示恶性概率为 20%,则预测为 0。

线性决策边界对应于一个直线方程

非线性决策边界可以通过加入多项式特征实现(例如 )。


四、逻辑回归的成本函数(Cost Function)

1. 为什么不能使用平方误差?

若使用平方误差代价函数:

在逻辑回归中会导致非凸函数(Non-convex),训练时可能陷入局部最小值,优化困难。

2. 逻辑回归的损失函数定义

为了让优化问题成为凸函数,我们定义单个样本的损失函数(Loss Function)为:

这意味着:

  • 若真实标签是 1,模型应尽量让 靠近 1,否则 会很大;

  • 若真实标签是 0,模型应让 靠近 0,否则 会很大。


五、逻辑回归的简化成本函数

可以把上面的两个情况合并为一个公式

整个训练集的平均成本函数为:

这个函数是凸函数(bowl shape),可以使用梯度下降高效求得最优解。


六、例子:肿瘤预测分类

假设我们有以下肿瘤数据(单特征):

肿瘤大小 x 是否恶性 y
1.0 0
2.0 0
3.0 0
4.0 1
5.0 1

我们模型设为:

假设训练得到参数 w=1.5,b=−4.0。

当 x=3 时:

表示"恶性肿瘤"的概率为 62%,因此预测类别为 1(恶性)


总结:

  • 逻辑回归不是"回归"而是"分类"模型;

  • 使用 Sigmoid 函数将线性输出转化为概率;

  • 损失函数为对数损失(Log Loss),确保优化问题凸;

  • 常用梯度下降法最小化 J(w,b)。

相关推荐
晞微40 分钟前
实战|SpringBoot+Vue3 医院智能预约挂号系统(含 AI 助手)
人工智能·spring boot·后端
九年义务漏网鲨鱼1 小时前
【多模态大模型面经】 BERT 专题面经
人工智能·深度学习·bert
爱打球的白师傅2 小时前
python机器学习工程化demo(包含训练模型,预测数据,模型列表,模型详情,删除模型)支持线性回归、逻辑回归、决策树、SVC、随机森林等模型
人工智能·python·深度学习·机器学习·flask·逻辑回归·线性回归
烟袅2 小时前
Trae 推出 Solo 模式:AI 开发的“一人一项目”时代来了?
前端·人工智能·solo
元宇宙时间2 小时前
AI赋能的$AIOT:打造Web3全周期智能生态的价值核心
人工智能·web3
瑞禧生物ruixibio2 小时前
Biotin-Oridonin B,生物素标记冬凌草乙素,可用于蛋白质修饰、药物靶标研究
人工智能
MediaTea2 小时前
Python 第三方库:TensorFlow(深度学习框架)
开发语言·人工智能·python·深度学习·tensorflow
GIS好难学3 小时前
【智慧城市】2025年华中农业大学暑期实训优秀作品(2):基于Vue框架和Java后端开发
人工智能·智慧城市
Joker-Tong3 小时前
大模型数据洞察能力方法调研
人工智能·python·agent