吴恩达深度学习课程一:神经网络和深度学习 第二周:神经网络基础(一)

此分类用于记录吴恩达深度学习课程的学习笔记。

课程相关信息链接如下:

  1. 原课程视频链接:[双语字幕]吴恩达深度学习deeplearning.ai
  2. github课程资料,含课件与笔记:吴恩达深度学习教学资料
  3. 课程配套练习(中英)与答案:吴恩达深度学习课后习题与答案

本篇为第一课第二周,在2.1之前的的基础补充。


本周的课程以逻辑回归为例详细介绍了神经网络的运行,传播等过程,其中涉及大量机器学习的基础知识和部分数学原理,如没有一定的相关基础,理解会较为困难。

因为,笔记并不直接复述视频原理,而是从基础开始,尽可能地创造一个较为丝滑的理解过程。

1.回归

1.1什么是回归?

首先依旧摆一个定义:

回归 (Regression)是统计学和机器学习中的一种方法,用于建立自变量(输入特征)与因变量(输出目标)之间的关系。回归的目的是通过分析数据,找出输入与输出之间的函数关系,并且根据这个关系来预测连续型的输出值 ,回归模型的主要目标是预测连续变量

简单来说,回归就是通过数据得到输入输出间的关系,再根据这个关系为输入预测连续型的输出。

之前在第一周中提到的用数据预测房价,就是回归问题。

之所以一直在强调输出的连续型,是为了和另一类问题:分类问题作区分,我们会在之后再展开,总之,回归问题得到的最终结果一定是一个连续的数值,如价格,身高,重量等,而非一类标签,如是或否等。

1.2 怎么回归?

我们现在知道了回归实现的效果,那如何实现回归呢?即输入输出的关系怎么得到的?

简单来说,就是通过输入输出得到拟合函数

\[y = f(x) \]

拟合函数可以是线性函数,多项式函数,分段函数等等,我们先忽略语境举一个最简单的例子:

如图所示,假设我们的数据即为图中点,我们观察数据,直接得到拟合关系:

\[y=x \]

我们通过把输入代入拟合函数,即可预测其他输入的输出:输入5,输出5;输入1.2得到1.2.

1.3 线性回归

线性回归可以说是最简单的回归算法,刚刚的 \(y=x\) 就是最简单的线性回归,线性回归得到的拟合函数图像一定是一条直线。

线性回归的通式如下:

\[y=wx+b \]

其中,在数学上,\(w\) 被称为斜率,\(b\) 被称为截距。

但在机器学习与神经网络的背景下,二者通常有更切实的称呼。

  1. \(w\)(权重): 对输入特征的加权系数,表示输入在网络中的重要性。
  2. \(b\) (偏置):模型的"起始点"或"偏移量,作用是调整每个神经元的输出。

了解了基础的概念后,我们说回刚刚的例子:

假设在该题的语境下,所以的数据都完美满足了\(y=x\) 这一拟合函数,实现了绝对精准的预测。

那就是说,我们只用线性回归就实现了对该问题的完美解,但可惜的是,当我们引进现实的情境后,这几乎是不可能做到的。

我们回顾一下最开始的房价预测的例子:

当时我们通过给神经网络的隐藏层增加ReLU激活函数来解决了房屋价格和面积的都不可能为负的情况,可现在再观察,我们发现图里的分段线性拟合函数最多只能预测到一个大致的范围

结合现实我们也知道,影响房屋价格的因素复杂的,我们不能用线性回归来精准的预测房屋价格,这便需要更复杂的回归算法,如其他机器学习算法或者神经网络。
而评价一个算法的好坏,首先便要看该算法在要解决问题的数据上的表现。

这便涉及到了更具体的评价指标,我们在之后遇到后再展开。

通过本篇,可以解了关于回归的一些基本知识,而知道了这些基础后,便可以比较通畅的学习2.1及之后的内容。