【学习笔记】机器学习(Machine Learning) | 第七章|神经网络(1)

机器学习(Machine Learning)

简要声明

基于吴恩达教授(Andrew Ng)课程视频
BiliBili课程资源


文章目录


机器学习之深度学习神经网络入门

在人工智能技术浪潮席卷全球的今天,深度学习神经网络作为其核心驱动力,正以前所未有的速度重塑各行业格局。本文将以学习笔记的视角,系统梳理神经网络的基础概念与核心架构,为深入探索深度学习打下坚实基础。

一、神经网络的起源与发展

神经网络的理论雏形可追溯至 1943 年 McCulloch 和 Pitts 提出的MP 神经元模型 ,该模型首次将生物神经元的工作机制抽象为数学计算单元。在 20 世纪 80 年代,反向传播算法(Backpropagation)的提出推动神经网络进入第一次发展高峰,在光学字符识别(OCR)等领域取得显著成果。但受制于当时有限的计算资源和梯度消失问题,90 年代后期神经网络逐渐陷入发展瓶颈。

转折点出现在 2006 年,Hinton 等人提出深度信念网络 (DBN)和预训练 - 微调策略,结合 GPU 算力的爆发式增长,神经网络迎来复兴。如今,基于 Transformer 架构的大语言模型(如 GPT 系列)、计算机视觉领域的卷积神经网络(CNN),以及自动驾驶中的端到端神经网络系统,都印证了其强大的泛化能力与应用潜力。

二、神经元模型

(一)生物神经元与数学模型对比

对比维度 生物神经元 数学神经元模型
结构特征 由树突(接收信号)、细胞体(整合信号)、轴突(输出信号)构成 由权重矩阵、偏置向量和激活函数组成计算单元
信号传输 通过电信号与化学递质传递脉冲信号 通过矩阵乘法和非线性变换传递数值信号
信息处理 非线性加权求和并阈值化输出 通过 z = ∑ i = 1 n w i x i + b z = \sum_{i=1}^{n}w_ix_i + b z=∑i=1nwixi+b 计算加权和,再经激活函数处理

(二)数学模型示例

以电商平台商品需求预测为例,构建单神经元模型:

输入层 :接收商品价格 x x x(如 x = 99 x = 99 x=99 元)

计算过程

加权求和: z = w x + b z = wx + b z=wx+b,假设 w = 0.3 w = 0.3 w=0.3, b = − 5 b = -5 b=−5,则 z = 0.3 × 99 − 5 = 24.7 z = 0.3 \times 99 - 5 = 24.7 z=0.3×99−5=24.7

激活函数:采用 sigmoid 函数 a = 1 1 + e − z = 1 1 + e − 24.7 ≈ 1 a = \frac{1}{1 + e^{-z}} = \frac{1}{1 + e^{-24.7}} \approx 1 a=1+e−z1=1+e−24.71≈1

输出层 :输出值 a a a 代表商品成为爆款的概率(接近 1 表明高可能性)

该过程通过调整权重 w w w 和偏置 b b b(训练过程),使模型预测与实际销售数据匹配,从而实现需求预测。

三、神经网络性能与数据量、硬件的关系

模型类型 数据需求特征 性能曲线特点 典型应用场景
传统 AI 算法 依赖人工特征工程,数据规模 < 1 万条 线性增长后趋于饱和 规则明确的结构化数据处理
小型神经网络 数据规模 1 万 - 10 万条 初期提升快,后期出现过拟合 简单图像分类(MNIST 数据集)
中型神经网络 数据规模 10 万 - 100 万条 保持稳定性能提升 医疗影像辅助诊断
大型神经网络 数据规模 > 100 万条 呈指数级性能提升 自然语言处理(BERT 模型)

硬件层面,GPU 的并行计算能力使神经网络训练效率提升数百倍。以 ResNet - 50 模型为例,在 CPU 上训练 ImageNet 数据集需耗时数周,而使用 NVIDIA A100 GPU 仅需 1 - 2 天。

四、神经网络架构

(一)基本架构

输入层: 商品特征
价格/销量/评价 隐藏层1: 特征提取
性价比/竞争力 隐藏层2: 语义理解
市场潜力 输出层: 预测结果
未来销量

每个神经元通过连接权重与下一层交互,如输入层到隐藏层的连接可表示为:

a 1 ( 1 ) a 2 ( 1 ) \] = \[ σ ( w 11 ( 0 ) x 1 + w 12 ( 0 ) x 2 + b 1 ( 0 ) ) σ ( w 21 ( 0 ) x 1 + w 22 ( 0 ) x 2 + b 2 ( 0 ) ) \] \\begin{bmatrix} a_1\^{(1)} \\\\ a_2\^{(1)} \\\\ \\end{bmatrix} = \\begin{bmatrix} \\sigma(w_{11}\^{(0)}x_1 + w_{12}\^{(0)}x_2 + b_1\^{(0)}) \\\\ \\sigma(w_{21}\^{(0)}x_1 + w_{22}\^{(0)}x_2 + b_2\^{(0)}) \\\\ \\end{bmatrix} \[a1(1)a2(1)\]=\[σ(w11(0)x1+w12(0)x2+b1(0))σ(w21(0)x1+w22(0)x2+b2(0))

其中, σ \sigma σ 为激活函数, w ( l ) w^{(l)} w(l) 为第 l l l 层权重, b ( l ) b^{(l)} b(l) 为偏置。

(二)多层隐藏层

随着隐藏层增加,网络表达能力呈指数级增长:

2 层隐藏层:可拟合复杂非线性边界,如手写数字识别

3 - 5 层隐藏层:适用于图像语义分析(识别图片中的多物体)

10 层以上:在 Transformer 架构中实现长距离依赖建模(如机器翻译)

但层数增加会引入梯度消失 / 爆炸 问题,需通过残差连接 (Residual Connection)、批量归一化(Batch Normalization)等技术优化。

深度学习神经网络通过模拟人类大脑的信息处理机制,在理论与实践的双重驱动下不断进化。后续学习将聚焦于网络训练的优化算法(如 Adam、Adagrad)、正则化技术(Dropout、L1/L2 范数)以及经典网络架构(CNN、RNN、Transformer)的具体实现,进一步解锁其在复杂任务中的应用潜力。


continue...

相关推荐
UQI-LIUWJ1 小时前
LLM 笔记:Speculative Decoding 投机采样
笔记
凤年徐3 小时前
【数据结构初阶】单链表
c语言·开发语言·数据结构·c++·经验分享·笔记·链表
阿阳微客5 小时前
Steam 搬砖项目深度拆解:从抵触到真香的转型之路
前端·笔记·学习·游戏
WarPigs7 小时前
Unity性能优化笔记
笔记·unity·游戏引擎
Gyoku Mint9 小时前
机器学习×第二卷:概念下篇——她不再只是模仿,而是开始决定怎么靠近你
人工智能·python·算法·机器学习·pandas·ai编程·matplotlib
px不是xp10 小时前
山东大学算法设计与分析复习笔记
笔记·算法·贪心算法·动态规划·图搜索算法
echo haha10 小时前
第7章 :面向对象
笔记
猛犸MAMMOTH10 小时前
Python打卡第46天
开发语言·python·机器学习
njsgcs10 小时前
chili3d 笔记16 emscripten配置 |用cnpm i 安装 |hello world 编译
笔记
小wanga11 小时前
【递归、搜索与回溯】专题三 穷举vs暴搜vs回溯vs剪枝
c++·算法·机器学习·剪枝