神经网络基础-神经网络补充概念-27-深层网络中的前向传播

概念

深层神经网络中的前向传播是指从输入数据开始,逐层计算每个神经元的输出值,直到得到最终的预测值。

一般步骤

1输入数据传递:

将输入数据传递给网络的输入层。输入数据通常是一个特征矩阵,每一列代表一个样本,每一行代表一个特征。

2加权求和和激活函数:

对于每个隐藏层,进行以下步骤:

3计算加权输入,即将输入数据与权重矩阵相乘并加上偏置向量。

将加权输入传递给激活函数,得到该隐藏层的激活值(输出)。常用的激活函数包括Sigmoid、ReLU、Tanh等。

4传递至下一层:

将当前隐藏层的输出作为下一隐藏层的输入,重复步骤 2,直到到达输出层。输出层的输出即为网络的预测值。

5返回预测值和缓存:

返回预测值(输出层的输出)以及在计算过程中保存的缓存(各层的加权输入和激活值),这些缓存在反向传播中会用到。

代码实现

python 复制代码
import numpy as np

# Sigmoid 激活函数
def sigmoid(x):
    return 1 / (1 + np.exp(-x))

# 初始化参数
def initialize_parameters(layer_dims):
    parameters = {}
    L = len(layer_dims)  # 网络层数

    for l in range(1, L):
        parameters['W' + str(l)] = np.random.randn(layer_dims[l], layer_dims[l - 1]) * 0.01
        parameters['b' + str(l)] = np.zeros((layer_dims[l], 1))

    return parameters

# 前向传播
def forward_propagation(X, parameters):
    caches = []
    A = X
    L = len(parameters) // 2  # 网络层数

    for l in range(1, L):
        Z = np.dot(parameters['W' + str(l)], A) + parameters['b' + str(l)]
        A = sigmoid(Z)
        caches.append((Z, A))

    Z = np.dot(parameters['W' + str(L)], A) + parameters['b' + str(L)]
    AL = sigmoid(Z)
    caches.append((Z, AL))

    return AL, caches

# 示例数据
X = np.random.randn(3, 10)  # 3个特征,10个样本
layer_dims = [3, 4, 5, 1]  # 输入层维度、各隐藏层维度、输出层维度
parameters = initialize_parameters(layer_dims)

# 前向传播
AL, caches = forward_propagation(X, parameters)

# 打印预测值
print("预测值:", AL)
相关推荐
AndrewHZ10 分钟前
【图像处理基石】如何入门色彩评估?
图像处理·人工智能·深度学习·色彩科学·hvs·色彩评估·颜色工程
TomatoSCI10 分钟前
聚类的可视化选择:PCA / t-SNE丨TomatoSCI分析日记
人工智能·机器学习
大咖分享课12 分钟前
深度剖析:最新发布的ChatGPT Agent 技术架构与应用场景
人工智能·openai·智能助手·ai代理·chatgpt agent·自主任务执行
lucky_lyovo23 分钟前
卷积神经网络--网络性能提升
人工智能·神经网络·cnn
liliangcsdn27 分钟前
smolagents - 如何在mac用agents做简单算术题
人工智能·macos·prompt
nju_spy31 分钟前
周志华《机器学习导论》第8章 集成学习 Ensemble Learning
人工智能·随机森林·机器学习·集成学习·boosting·bagging·南京大学
静心问道1 小时前
TrOCR: 基于Transformer的光学字符识别方法,使用预训练模型
人工智能·深度学习·transformer·多模态
说私域1 小时前
基于开源AI大模型、AI智能名片与S2B2C商城小程序源码的用户价值引导与核心用户沉淀策略研究
人工智能·开源
亲持红叶1 小时前
GLU 变种:ReGLU 、 GEGLU 、 SwiGLU
人工智能·深度学习·神经网络·激活函数
说私域1 小时前
线上协同办公时代:以开源AI大模型等工具培养网感,拥抱职业变革
人工智能·开源