1-【选修】逻辑回归

1 Logistic Regression

1.1 step1: Function Set

--

1.2 Step2: Goodness of a Function

cross entropy 衡量两个分布有多接近

1.3 Step3: Find the best function

1.4 Review

2 why not Logsitic Regression + Square Error?

3 Discriminative V.S. Generative

Logistics模型没有假设,但generative假设样本的probability distribution为高斯?朴素贝叶斯?等

3.1 which one is better

通常认为discriminative比generative要好

如上图所示,在Naive Bayes中并没有考虑不同dimension之间的correlation。所以generative模型中假定的probability distribution有可能会脑补出不应该有的条件

3.2 Benefit of generative model

4 Multi-class Classification

3 classes as example

5 Limitation of Logistic Regression

5.1 Feature Transformation

5.2 Cascading Logistic Regression Models

让机器自己学习找到好的feature transformation

这样机器自己学习后进行了feature transformation,从 x 1 , x 2 x_1, x_2 x1,x2转到 x 1 ′ , x 2 ′ x'_1, x'_2 x1′,x2′,再通过转化后的feature进行分类

Neural Network就来咯

相关推荐
长桥夜波2 小时前
【第十七周】机器学习笔记06
人工智能·笔记·机器学习
深栈2 小时前
机器学习:支持向量机
算法·机器学习·支持向量机
zy_destiny2 小时前
【工业场景】用YOLOv8实现人员打电话识别
人工智能·python·深度学习·yolo·机器学习·计算机视觉·目标跟踪
zzZ65652 小时前
PyTorch 实现 MNIST 手写数字识别全流程
pytorch·深度学习
吃果冻不吐果冻皮2 小时前
LLM 确定性推理
机器学习
Mr.Winter`2 小时前
深度强化学习 | 基于SAC算法的动态避障(ROS C++仿真)
人工智能·深度学习·神经网络·机器人·自动驾驶·ros·具身智能
东方芷兰3 小时前
LLM 笔记 —— 07 Tokenizers(BPE、WordPeice、SentencePiece、Unigram)
人工智能·笔记·深度学习·神经网络·语言模型·自然语言处理·nlp
CoovallyAIHub3 小时前
超详细链式插补 (MICE) 多元插补:机器学习模型的高级缺失数据处理
算法·机器学习·计算机视觉
盼小辉丶3 小时前
Transformer实战(22)——使用FLAIR进行语义相似性评估
深度学习·自然语言处理·transformer
lqjun08273 小时前
平面的方程公式
线性代数·机器学习·平面