1-【选修】逻辑回归

1 Logistic Regression

1.1 step1: Function Set

--

1.2 Step2: Goodness of a Function

cross entropy 衡量两个分布有多接近

1.3 Step3: Find the best function

1.4 Review

2 why not Logsitic Regression + Square Error?

3 Discriminative V.S. Generative

Logistics模型没有假设,但generative假设样本的probability distribution为高斯?朴素贝叶斯?等

3.1 which one is better

通常认为discriminative比generative要好

如上图所示,在Naive Bayes中并没有考虑不同dimension之间的correlation。所以generative模型中假定的probability distribution有可能会脑补出不应该有的条件

3.2 Benefit of generative model

4 Multi-class Classification

3 classes as example

5 Limitation of Logistic Regression

5.1 Feature Transformation

5.2 Cascading Logistic Regression Models

让机器自己学习找到好的feature transformation

这样机器自己学习后进行了feature transformation,从 x 1 , x 2 x_1, x_2 x1,x2转到 x 1 ′ , x 2 ′ x'_1, x'_2 x1′,x2′,再通过转化后的feature进行分类

Neural Network就来咯

相关推荐
阿里云大数据AI技术2 小时前
Hologres V3.1版本发布,Serverless型实例从零开始构建OLAP系统
大数据·人工智能·机器学习
行然梦实2 小时前
KnEA(Knee-point-driven Evolutionary Algorithm)简介
人工智能·算法·机器学习
月吟荧静2 小时前
04动手学深度学习(下)
人工智能·深度学习
笙囧同学2 小时前
从零到一:我是如何用深度学习打造高性能书籍推荐系统的
人工智能·深度学习
nightunderblackcat3 小时前
新手向:用AI破解数据质量难题
人工智能·机器学习·自然语言处理
图灵学术计算机论文辅导3 小时前
特征融合+目标检测!3篇CVPR新作把多模态目标检测拉高10个mAP
论文阅读·人工智能·考研·机器学习·计算机视觉·目标跟踪·信息与通信
EulerBlind3 小时前
【运维】HuggingFace缓存目录结构详解
运维·深度学习
tilblackout4 小时前
机器学习详解(28):LightGBM原理
人工智能·机器学习
weixin_464078074 小时前
机器学习sklearn:决策树的参数、属性、接口
决策树·机器学习·sklearn
NeoFii5 小时前
Day 24:元组与os模块
python·机器学习