分类任务的基础学习

1.什么是分类?


2.局限性:

样本量逐渐变大 的时候,准确率会下降 ------>因为线性回归曲线距离我们的原点越远 ,预测就会开始不准确,因为 x前面的倍数就会越来越小 ,这就导致了样本量变大 ,但是那些原来靠近原点的点的结果就会可能发生改变;

3.逻辑回归模型

**和线性回归的区别就是:**方程不一样。

**效果:**能够很好地拟合数据,完成分类任务。
目的:根据数据特征和属性,计算归属于某一类别的概率P(x),根据其概率数值判断其所属类别(应用场景为二分类问题)

3.1数学表达式:

4. 逻辑回归处理分类任务:

将x=-10和x=100带入P(x)sigmod 方程,根据是否大于0.5进行具体判断

5.多因子情况的分类任务考虑:

分类任务 需要考虑两个最重要的大点,第一点是概率分布函数,第二点是g(x)这个关系函数

5.1复杂分类任务的求解:

1.首先明确最小损失函数:

我们首先不再使用线性回归方程的损失函数,因为它需要连续的方程而非离散的点,故求不出极小值点,也就是求不出参数

2.整体样本的损失函数J如下所示:

min(J(θ))

而寻找θ等参数的极值本质还是梯度下降法:
本质:pi+1=pi-αf(pi)对pi求导
迁移:tempθj=θj-α
J(θj)对θj求导

6.区分类散点图:

7.如何利用sklearn得到二分类的边界函数

LogisticRegression:(逻辑回归模型)

7.1如何优化边界函数得到更加优秀的结果:
7.2评估模型的表现:

正确样本数量/总样本数量

相关推荐
zhangfeng113310 小时前
氨基酸序列表示法,蛋白质序列表达 计算机中机器学习 大语言模型中的表达,为什么没有糖蛋白或者其他基团磷酸化甲基化乙酰化泛素化
人工智能·机器学习·语言模型
OpenBayes11 小时前
教程上新|DeepSeek-OCR 2公式/表格解析同步改善,以低视觉token成本实现近4%的性能跃迁
人工智能·深度学习·目标检测·机器学习·大模型·ocr·gpu算力
Eloudy13 小时前
直接法 读书笔记 01 第1章 引言
人工智能·机器学习·hpc
AEIC学术交流中心13 小时前
【快速EI检索 | SPIE出版】2026年机器学习与大模型国际学术会议(ICMLM 2026)
人工智能·机器学习
Daydream.V14 小时前
逻辑回归实例问题解决(LogisticRegression)
算法·机器学习·逻辑回归
纤纡.14 小时前
逻辑回归实战进阶:交叉验证与采样技术破解数据痛点(二)
算法·机器学习·逻辑回归
岱宗夫up14 小时前
机器学习:标准化流模型(NF)
人工智能·python·机器学习·生成对抗网络
deep_drink15 小时前
【基础知识一】线性代数的核心:从矩阵变换到 SVD 终极奥义
线性代数·机器学习·矩阵
山居秋暝LS15 小时前
Padim模型参数
人工智能·机器学习
Rorsion15 小时前
机器学习过程(从机器学习到深度学习)
人工智能·深度学习·机器学习