吴恩达2022机器学习专项课程(一)7.3 逻辑回归的梯度下降 & 实验:逻辑回归的梯度下降(C1_W3_Lab06)

问题预览/关键词

逻辑回归的梯度下降算法公式

和多元线性回归一样,有几个特征,就要同时计算几个wj。

计算梯度下降的导数项

逻辑回归和线性回归的梯度下降算法区别

从梯度下降算法的形式上看,似乎没有区别。但是用于计算的f(x)函数不同,因此它们是不同的算法。

逻辑回归和线性回归在梯度下降算法的通用之处

检测梯度下降收敛

检测梯度下降收敛的方法一致,详见5.7(检测梯度下降是否收敛)。

向量化操作

都可以向量化操作,详见课后实验代码。

特征缩放

都可以使用特征缩放,加快逻辑回归的梯度下降。

实验

创建训练集并绘制散点图

计算梯度下降的导数项

  • 公式
  • 计算过程解析详见第二周课后实验的Lab02。
  • 调用函数,执行一次梯度下降。

运行梯度下降

  • 公式
  • 根据公式编写函数
  • 调用函数,计算出w,b。

根据w,b构建决策边界

决策边界能够很好的将训练集的数据分类,证明计算出的w,b很合适。

可视化理解成本函数和梯度下降迭代(单特征)

  • 点击右上方等高线图,可以修改w,b,然后点击右下角的橘色按钮运行梯度下降,观察四张图的变化。
  • w,b离等高线图越远,模型预测效果越差,因此左上方的逻辑回归模型对于每个训练集数据的损失越大。

总结

本节主要讲述了如何计算逻辑回归的梯度下降,并演示了如何用Python实现。逻辑回归和线性回归的梯度下降算法很相似,但因为它们的f(x)不同,因此也是不同的算法。

相关推荐
AI数据皮皮侠2 小时前
中国区域10m空间分辨率楼高数据集(全国/分省/分市/免费数据)
大数据·人工智能·机器学习·分类·业界资讯
张德锋3 小时前
Pytorch实现天气识别
机器学习
Wilber的技术分享5 小时前
【机器学习实战笔记 14】集成学习:XGBoost算法(一) 原理简介与快速应用
人工智能·笔记·算法·随机森林·机器学习·集成学习·xgboost
19895 小时前
【零基础学AI】第26讲:循环神经网络(RNN)与LSTM - 文本生成
人工智能·python·rnn·神经网络·机器学习·tensorflow·lstm
JoernLee6 小时前
机器学习算法:支持向量机SVM
人工智能·算法·机器学习
AI街潜水的八角7 小时前
深度学习图像分类数据集—蘑菇识别分类
人工智能·深度学习·分类
IT古董14 小时前
【第二章:机器学习与神经网络概述】04.回归算法理论与实践 -(4)模型评价与调整(Model Evaluation & Tuning)
神经网络·机器学习·回归
蓝婷儿18 小时前
Python 机器学习核心入门与实战进阶 Day 3 - 决策树 & 随机森林模型实战
人工智能·python·机器学习
大千AI助手18 小时前
PageRank:互联网的马尔可夫链平衡态
人工智能·机器学习·贝叶斯·mc·pagerank·条件概率·马尔科夫链
我就是全世界19 小时前
TensorRT-LLM:大模型推理加速的核心技术与实践优势
人工智能·机器学习·性能优化·大模型·tensorrt-llm