神经网络基础-神经网络补充概念-53-将batch norm拟合进神经网络

代码实现

python 复制代码
import numpy as np
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, BatchNormalization, Activation
from tensorflow.keras.optimizers import SGD

# 生成随机数据
np.random.seed(0)
X = np.random.rand(100, 10)
y = np.random.randint(2, size=(100, 1))

# 构建神经网络模型
model = Sequential()

# 添加输入层
model.add(Dense(32, input_dim=10))
model.add(BatchNormalization())
model.add(Activation('relu'))

# 添加隐含层
model.add(Dense(64))
model.add(BatchNormalization())
model.add(Activation('relu'))

# 添加输出层
model.add(Dense(1, activation='sigmoid'))

# 编译模型
model.compile(optimizer=SGD(lr=0.01), loss='binary_crossentropy', metrics=['accuracy'])

# 训练模型
model.fit(X, y, epochs=50, batch_size=32)

为什么BN会生效

梯度消失问题的缓解:在深度神经网络中,梯度消失是一个常见的问题,特别是在深层网络中。批归一化通过在每个批次内对输入进行标准化,使得激活函数的输入分布更稳定,从而减轻了梯度消失问题,使得梯度更容易传播,促进了训练过程的稳定性和效率。

加速收敛:由于批归一化在每个批次内对输入进行了标准化,网络的参数可以更快地收敛到合适的范围,从而加速了训练的收敛速度。这意味着在相同迭代次数下,批归一化的网络可以取得更好的效果。

模型稳定性:批归一化有助于减少模型在训练过程中的震荡,使得网络更加稳定。它通过对每个批次的统计信息进行标准化,减小了参数的更新幅度,从而减少了训练过程中的不稳定性。

泛化能力提升:批归一化对输入数据的标准化可以使模型对不同尺度、分布的数据更具有鲁棒性,从而提高了模型的泛化能力,使其在测试数据上表现更好。

正则化效果:批归一化在每个批次内引入了一些噪声,类似于 dropout,有助于模型的正则化,减少过拟合问题。

相关推荐
LUU_791 分钟前
Day26 评价问题介绍
人工智能·python
fantasy_arch1 分钟前
残差网络模型demo
网络·深度学习·神经网络
韩曙亮2 分钟前
【自动驾驶】Autoware 三大版本 ( Autoware.AI | Autoware.Auto | Autoware Core/Universe )
人工智能·机器学习·自动驾驶·autoware·autoware.ai·autoware.auto
Bol52612 分钟前
「“嵌”入未来,“式”界无限」从智能家居到工业4.0,从可穿戴设备到自动驾驶,嵌入式技术正以前所未有的深度和广度,悄然重塑我们的世界
人工智能·自动驾驶·智能家居
老蒋新思维6 分钟前
创客匠人峰会复盘:AI 赋能 IP 创新增长,知识变现的 4 大实战路径与跨行业案例
大数据·网络·人工智能·tcp/ip·创始人ip·创客匠人·知识变现
人工小情绪7 分钟前
PyTorch 转 ONNX 实用教程
人工智能·pytorch·python
AI-嘉文哥哥7 分钟前
ADAS自动驾驶-前车碰撞预警(追尾预警、碰撞检测)系统
人工智能·深度学习·yolo·目标检测·数据分析·课程设计·qt5
ManageEngineITSM7 分钟前
IT 资产扫描工具与企业服务台的数字化底层价值
大数据·运维·人工智能·itsm·工单系统
emacs5lisp9 分钟前
基于强化学习的自动驾驶控制
神经网络·自动驾驶·强化学习·carla·智能体
skywalk81639 分钟前
智能营养食谱平台 - 项目创意策划书
人工智能