分类任务的基础学习

1.什么是分类?


2.局限性:

样本量逐渐变大 的时候,准确率会下降 ------>因为线性回归曲线距离我们的原点越远 ,预测就会开始不准确,因为 x前面的倍数就会越来越小 ,这就导致了样本量变大 ,但是那些原来靠近原点的点的结果就会可能发生改变;

3.逻辑回归模型

**和线性回归的区别就是:**方程不一样。

**效果:**能够很好地拟合数据,完成分类任务。
目的:根据数据特征和属性,计算归属于某一类别的概率P(x),根据其概率数值判断其所属类别(应用场景为二分类问题)

3.1数学表达式:

4. 逻辑回归处理分类任务:

将x=-10和x=100带入P(x)sigmod 方程,根据是否大于0.5进行具体判断

5.多因子情况的分类任务考虑:

分类任务 需要考虑两个最重要的大点,第一点是概率分布函数,第二点是g(x)这个关系函数

5.1复杂分类任务的求解:

1.首先明确最小损失函数:

我们首先不再使用线性回归方程的损失函数,因为它需要连续的方程而非离散的点,故求不出极小值点,也就是求不出参数

2.整体样本的损失函数J如下所示:

min(J(θ))

而寻找θ等参数的极值本质还是梯度下降法:
本质:pi+1=pi-αf(pi)对pi求导
迁移:tempθj=θj-α
J(θj)对θj求导

6.区分类散点图:

7.如何利用sklearn得到二分类的边界函数

LogisticRegression:(逻辑回归模型)

7.1如何优化边界函数得到更加优秀的结果:
7.2评估模型的表现:

正确样本数量/总样本数量

相关推荐
龙山云仓2 小时前
记忆,是意识的第一块基石-老D(DeepSeek)· 类人成长记忆册
人工智能·深度学习·机器学习
逻辑君3 小时前
认知神经科学研究报告【20260062】
人工智能·机器学习
薛定e的猫咪3 小时前
【ICML 2025】MODULI:基于扩散模型解锁离线多目标强化学习的偏好泛化
人工智能·学习·算法·机器学习
初心未改HD3 小时前
机器学习之朴素贝叶斯分类器详解
人工智能·机器学习·概率论
lwf0061644 小时前
PNN (Product-based Neural Network) 学习日记
算法·机器学习
通信仿真爱好者4 小时前
【无标题】
人工智能·算法·机器学习
坐望云起5 小时前
机器学习笔记 - 基于C++的深度学习 四、实现梯度下降
笔记·深度学习·机器学习
Zldaisy3d5 小时前
上交大特材所 l 同步辐射CT与机器学习驱动增材制造气雾化粉末表征及工艺优化
人工智能·机器学习·制造
初心未改HD5 小时前
机器学习之DBSCAN密度聚类详解
人工智能·机器学习·聚类