1-【选修】逻辑回归

1 Logistic Regression

1.1 step1: Function Set

--

1.2 Step2: Goodness of a Function

cross entropy 衡量两个分布有多接近

1.3 Step3: Find the best function

1.4 Review

2 why not Logsitic Regression + Square Error?

3 Discriminative V.S. Generative

Logistics模型没有假设,但generative假设样本的probability distribution为高斯?朴素贝叶斯?等

3.1 which one is better

通常认为discriminative比generative要好

如上图所示,在Naive Bayes中并没有考虑不同dimension之间的correlation。所以generative模型中假定的probability distribution有可能会脑补出不应该有的条件

3.2 Benefit of generative model

4 Multi-class Classification

3 classes as example

5 Limitation of Logistic Regression

5.1 Feature Transformation

5.2 Cascading Logistic Regression Models

让机器自己学习找到好的feature transformation

这样机器自己学习后进行了feature transformation,从 x 1 , x 2 x_1, x_2 x1,x2转到 x 1 ′ , x 2 ′ x'_1, x'_2 x1′,x2′,再通过转化后的feature进行分类

Neural Network就来咯

相关推荐
哥布林学者1 小时前
深度学习进阶(五)Vision Transformer
机器学习·ai
罗西的思考2 小时前
【OpenClaw】通过 Nanobot 源码学习架构---(5)Context
人工智能·算法·机器学习
OYpBNTQXi4 小时前
SEAL全同态加密CKKS方案入门详解
算法·机器学习·同态加密
Binary_ey4 小时前
光刻技术第22期 | 贝叶斯压缩感知光源优化的优化技术及对比分析
人工智能·深度学习·机器学习
蚂蚁数据AntData4 小时前
破解AI“机器味“困境:HeartBench评测实践详解
大数据·人工智能·算法·机器学习·语言模型·开源
咚咚王者5 小时前
人工智能之知识处理 知识推理 第三章 图神经网络与知识推理:让图谱“活”起来
人工智能·深度学习·神经网络
taWSw5OjU6 小时前
从模型评估、梯度难题到科学初始化:一步步解析深度学习的训练问题
人工智能·深度学习
Ricardo-Yang6 小时前
SCNP语义分割边缘logits策略
数据结构·人工智能·python·深度学习·算法
新缸中之脑6 小时前
微调BERT进行命名实体识别
人工智能·深度学习·bert
kishu_iOS&AI7 小时前
机器学习 —— 线性回归
人工智能·机器学习·线性回归