前向传播

沛沛老爹16 天前
深度学习·反向传播·前向传播·bp算法
BP 算法探秘 :神经网络的幕后引擎大家好,我是沛哥儿,很高兴又和大家见面了。在人工智能的世界里,神经网络如同大脑一般神秘又强大,而其中 **BP 算法(Backpropagation Algorithm)**就是驱动这个 “大脑” 不断学习进化的幕后引擎。
夜松云1 个月前
人工智能·机器学习·损失函数·梯度下降·前向传播·数学基础·交叉验证
机器学习中的距离度量与优化方法:从曼哈顿距离到梯度下降目录书接上文KNN算法深度解析:从决策边界可视化到鸢尾花分类实战-CSDN博客文章浏览阅读660次,点赞11次,收藏10次。本文系统讲解了KNN算法的决策边界形成机制、Scikit-learn实现细节及鸢尾花分类实战,涵盖K值选择对边界的影响、API参数解析、数据预处理(归一化/标准化)和数据集划分方法,通过代码示例和可视化分析帮助读者掌握KNN的核心应用技巧。https://blog.csdn.net/qq_58364361/article/details/147201792?spm=1011.2415
幻风_huanfeng1 年前
人工智能·深度学习·机器学习·反向传播·前向传播·计算图
每天五分钟深度学习:如何使用计算图来反向计算参数的导数?在上一个课程中,我们使用一个例子来计算函数J,也就相当于前向传播的过程,本节课程我们将学习如何使用计算图计算函数J的导数。相当于反向传播的过程。
奉系坤阀1 年前
人工智能·pytorch·深度学习·神经网络·module·前向传播·sequential
Pytorch神经网络的模型架构(nn.Module和nn.Sequential的用法)目录一、层和块二、自定义块三、顺序块四、在前向传播函数中执行代码五、嵌套使用六、总结在构造自定义块之前,我们先回顾一下多层感知机的代码。下面的代码生成一个网络,其中包含一个具有256个单元和ReLU激活函数的全连接隐藏层,然后是一个具有10个隐藏单元且不带激活函数的全连接输出层。
又见阿郎1 年前
神经网络·梯度·反向传播·前向传播
聊聊 神经网络模型 传播计算逻辑预训练过程就是在不断地更新权重超参数与偏置超参数,最后选择合适的超参数,生成超参数文件。上一篇博客 是使用已有的预训练超参数文件,要训练自己的超参数,需要对神经网络层中前向传播与反向传播计算熟悉,了解计算逻辑,才能不断地更新选择合适的超参数。