1-【选修】逻辑回归

1 Logistic Regression

1.1 step1: Function Set

--

1.2 Step2: Goodness of a Function

cross entropy 衡量两个分布有多接近

1.3 Step3: Find the best function

1.4 Review

2 why not Logsitic Regression + Square Error?

3 Discriminative V.S. Generative

Logistics模型没有假设,但generative假设样本的probability distribution为高斯?朴素贝叶斯?等

3.1 which one is better

通常认为discriminative比generative要好

如上图所示,在Naive Bayes中并没有考虑不同dimension之间的correlation。所以generative模型中假定的probability distribution有可能会脑补出不应该有的条件

3.2 Benefit of generative model

4 Multi-class Classification

3 classes as example

5 Limitation of Logistic Regression

5.1 Feature Transformation

5.2 Cascading Logistic Regression Models

让机器自己学习找到好的feature transformation

这样机器自己学习后进行了feature transformation,从 x 1 , x 2 x_1, x_2 x1,x2转到 x 1 ′ , x 2 ′ x'_1, x'_2 x1′,x2′,再通过转化后的feature进行分类

Neural Network就来咯

相关推荐
yzx99101312 分钟前
构建未来:深度学习、嵌入式与安卓开发的融合创新之路
android·人工智能·深度学习
非门由也23 分钟前
《sklearn机器学习——特征提取》
人工智能·机器学习·sklearn
Godspeed Zhao2 小时前
自动驾驶中的传感器技术39——Radar(0)
人工智能·机器学习·自动驾驶·毫米波雷达
idealmu2 小时前
知识蒸馏(KD)详解一:认识一下BERT 模型
人工智能·深度学习·bert
Cathyqiii2 小时前
生成对抗网络(GAN)
人工智能·深度学习·计算机视觉
Christo37 小时前
TFS-2018《On the convergence of the sparse possibilistic c-means algorithm》
人工智能·算法·机器学习·数据挖掘
非门由也9 小时前
《sklearn机器学习——管道和复合估计器》回归中转换目标
机器学习·回归·sklearn
IMER SIMPLE9 小时前
人工智能-python-深度学习-经典神经网络AlexNet
人工智能·python·深度学习
小憩-11 小时前
【机器学习】吴恩达机器学习笔记
人工智能·笔记·机器学习
UQI-LIUWJ11 小时前
unsloth笔记:运行&微调 gemma
人工智能·笔记·深度学习