1-【选修】逻辑回归

1 Logistic Regression

1.1 step1: Function Set

--

1.2 Step2: Goodness of a Function

cross entropy 衡量两个分布有多接近

1.3 Step3: Find the best function

1.4 Review

2 why not Logsitic Regression + Square Error?

3 Discriminative V.S. Generative

Logistics模型没有假设,但generative假设样本的probability distribution为高斯?朴素贝叶斯?等

3.1 which one is better

通常认为discriminative比generative要好

如上图所示,在Naive Bayes中并没有考虑不同dimension之间的correlation。所以generative模型中假定的probability distribution有可能会脑补出不应该有的条件

3.2 Benefit of generative model

4 Multi-class Classification

3 classes as example

5 Limitation of Logistic Regression

5.1 Feature Transformation

5.2 Cascading Logistic Regression Models

让机器自己学习找到好的feature transformation

这样机器自己学习后进行了feature transformation,从 x 1 , x 2 x_1, x_2 x1,x2转到 x 1 ′ , x 2 ′ x'_1, x'_2 x1′,x2′,再通过转化后的feature进行分类

Neural Network就来咯

相关推荐
小鸡吃米…5 小时前
机器学习 - K - 中心聚类
人工智能·机器学习·聚类
MM_MS6 小时前
Halcon变量控制类型、数据类型转换、字符串格式化、元组操作
开发语言·人工智能·深度学习·算法·目标检测·计算机视觉·视觉检测
齐齐大魔王8 小时前
Pascal VOC 数据集
人工智能·深度学习·数据集·voc
Hcoco_me8 小时前
RNN(循环神经网络)
人工智能·rnn·深度学习
武子康10 小时前
大数据-209 深度理解逻辑回归(Logistic Regression)与梯度下降优化算法
大数据·后端·机器学习
柠柠酱11 小时前
【深度学习Day5】决战 CIFAR-10:手把手教你搭建第一个“正经”的卷积神经网络 (附调参心法)
深度学习
gravity_w11 小时前
Hugging Face使用指南
人工智能·经验分享·笔记·深度学习·语言模型·nlp
少林码僧12 小时前
2.29 XGBoost、LightGBM、CatBoost对比:三大梯度提升框架选型指南
人工智能·机器学习·ai·数据挖掘·数据分析·回归
春日见12 小时前
控制算法:PP(纯跟踪)算法
linux·人工智能·驱动开发·算法·机器学习
Yeats_Liao12 小时前
MindSpore开发之路(二十六):系列总结与学习路径展望
人工智能·深度学习·学习·机器学习