梯度下降

liruiqiang053 天前
人工智能·深度学习·神经网络·机器学习·梯度下降
神经网络优化 - 小批量梯度下降之批量大小的选择上一博文学习了小批量梯度下降在神经网络优化中的应用:神经网络优化 - 小批量梯度下降-CSDN博客在小批量梯度下降法中,批量大小(Batch Size)对网络优化的影响也非常大,本文我们来学习如何选择小批量梯度下降的批量大小。
夜松云3 天前
人工智能·pytorch·算法·机器学习·线性回归·梯度下降·自动求导
自求导实现线性回归与PyTorch张量详解目录书接上文线性回归的前向传播、反向传播与数学求解详解-CSDN博客文章浏览阅读1k次,点赞40次,收藏19次。本文从前向传播的代码实现出发,展示了如何利用线性模型对二维数据进行拟合及误差分析,接着深入讲解了反向传播中的学习率和梯度下降算法的理论基础及优化方法,结合Python代码动态演示了参数更新和损失函数的变化过程;最后,文章通过数学推导详细揭示了线性回归模型参数的计算公式,并用代码实现了数学解法的拟合过程,帮助读者全面掌握线性回归的基本原理、优化方法及编程实现。https://blog.csdn.n
夜松云8 天前
人工智能·机器学习·损失函数·梯度下降·前向传播·数学基础·交叉验证
机器学习中的距离度量与优化方法:从曼哈顿距离到梯度下降目录书接上文KNN算法深度解析:从决策边界可视化到鸢尾花分类实战-CSDN博客文章浏览阅读660次,点赞11次,收藏10次。本文系统讲解了KNN算法的决策边界形成机制、Scikit-learn实现细节及鸢尾花分类实战,涵盖K值选择对边界的影响、API参数解析、数据预处理(归一化/标准化)和数据集划分方法,通过代码示例和可视化分析帮助读者掌握KNN的核心应用技巧。https://blog.csdn.net/qq_58364361/article/details/147201792?spm=1011.2415
lihuayong3 个月前
pytorch·深度学习·numpy·梯度下降·自动求导
深度学习框架PyTorch深度学习框架:是一个针对深度学习的科学计算库,在深度学习领域,以下是当前市场上几个主流的深度学习框架:
蜡笔小新..3 个月前
人工智能·机器学习·线性回归·梯度下降·数学推导
从零推导线性回归:最小二乘法与梯度下降的数学原理欢迎来到我的主页:【Echo-Nie】本篇文章收录于专栏【机器学习】本文所有内容相关代码都可在以下仓库中找到: Github-MachineLearning
Trouvaille ~4 个月前
人工智能·python·机器学习·ai·数据分析·微积分·梯度下降
【机器学习】分而知变,积而见道:微积分中的世界之思💬 欢迎讨论:如果你在阅读过程中有任何疑问或想要进一步探讨的内容,欢迎在评论区留言!我们一起学习、一起成长。
_清豆°6 个月前
python·神经网络·机器学习·感知机·梯度下降·神经元·多层神经网络
机器学习(四)——神经网络(神经元、感知机、BP神经网络、梯度下降、多层神经网络、Python源码)神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应”
正义的彬彬侠6 个月前
人工智能·深度学习·神经网络·算法·机器学习·梯度下降·反向传播
交叉熵损失函数为代表的两层神经网络的反向传播量化求导计算公式反向传播(back propagation,BP)算法也称误差逆传播,是神经网络训练的核心算法。我们通常说的 BP 神经网络是指应用反向传播算法进行训练的神经网络模型。反向传播算法的工作机制究竟是怎样的呢?我们以一个两层(即单隐层)网络为例,也就是图 8-5 中的网络结构,给出反向传播的基本推导过程。
闲人编程7 个月前
开发语言·python·算法·优化·梯度下降·拟合·lm
Python 实现 LM 算法(Levenberg-Marquardt)引言LM 算法的原理Python 实现 LM 算法LM 算法应用实例:非线性曲线拟合LM 算法的改进与扩展
hyk今天写算法了吗7 个月前
人工智能·深度学习·学习·梯度下降·凸优化
凸优化学习(2)——梯度类方法求解(gradient descent)🍅 写在前面 👨‍🎓 博主介绍:大家好,这里是hyk写算法了吗,一枚致力于学习算法和人工智能领域的小菜鸟。 🔎个人主页:主页链接(欢迎各位大佬光临指导) ⭐️近期专栏:机器学习与深度学习 LeetCode算法实例 张量分解
py明天会更好9 个月前
人工智能·算法·线性回归·梯度下降
【Deep-ML系列】Linear Regression Using Gradient Descent(手写梯度下降)题目链接:Deep-ML这道题主要是要考虑矩阵乘法的维度,保证维度正确,就可以获得最终的theata
大数据AI人工智能培训专家培训讲师叶梓9 个月前
人工智能·机器学习·语言模型·自然语言处理·优化·梯度下降·无损数据压缩
Learning Law:迈向语言模型最优学习的理论人工智能咨询培训老师叶梓 转载标明出处语言模型(LMs)在自然语言处理领域扮演着越来越重要的角色。随着模型规模的不断扩大,其计算需求也在迅速增长。为了在有限的计算资源下探索LMs的潜力,研究人员需要找到更高效的学习方法。清华大学的CoAI团队和微软研究院的研究人员联合提出了一种新的理论,旨在通过优化学习过程来减少达到优异性能所需的训练步骤。这项工作不仅提出了一种新的优化目标,还通过实验验证了其理论的有效性。
逐梦苍穹9 个月前
人工智能·pytorch·python·数学·算法·梯度下降·自动微分
PyTorch的自动微分模块【含梯度基本数学原理详解】🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发、数据结构和算法,初步涉猎人工智能和前端开发。 🦅个人主页:@逐梦苍穹 📕所属专栏:人工智能 🌻gitee地址:xzl的人工智能代码仓库 ✈ 您的一键三连,是我创作的最大动力🌹
松下J2710 个月前
人工智能·深度学习·神经网络·梯度下降·sgd
深度学习 --- stanford cs231学习笔记七(训练神经网络之梯度下降优化器)在深度学习中,权重W的值是否合理是由损失函数L来判断的。L越小,表示W的设置越happy。L越大,表示W的值越unhappy。 为了让L越来越小,常用的方法是梯度下降法。
不会&编程10 个月前
深度学习·神经网络·梯度下降
方向导数和梯度导数的几何意义如图所示:当 P 0 P_{0} P0点不断接近 P P P时,导数如下定义: f ′ ( x 0 ) = lim ⁡ △ x → 0 △ y △ x = lim ⁡ △ x → 0 f ( x 0 + △ x ) − f ( x 0 ) △ x {f}'(x_{0})=\lim\limits_{△x→0}\frac{△y}{△x} =\lim\limits_{△x→0}\frac{f(x_{0}+△x)-f(x_{0})}{△x} f′(x0)=△x→0lim△x△y=△x→0lim△xf
知来者逆1 年前
人工智能·深度学习·神经网络·机器学习·dnn·梯度下降·梯度提升
深度神经网络——什么是梯度提升?在数据科学竞赛中,梯度提升模型(Gradient Boosting)是一种非常强大的工具,它能够将多个弱学习模型组合起来,形成一个强学习模型。这个过程是通过逐步添加弱学习者来实现的,每个新加入的弱学习者都专注于当前整体模型的弱点,从而逐步提高预测的准确性。
Sarapines Programmer1 年前
人工智能·深度学习·梯度下降·python实现·softmax回归·多类别分类
【动手学深度学习】softmax回归从零开始实现的研究详情目录🌊1. 研究目的🌊2. 研究准备🌊3. 研究内容🌍3.1 softmax回归的从零开始实现
知来者逆1 年前
人工智能·深度学习·神经网络·机器学习·dnn·梯度下降
深度神经网络——什么是梯度下降?如果对神经网络的训练有所了解,那么很可能已经听说过“梯度下降”这一术语。梯度下降是提升神经网络性能、降低其误差率的主要技术手段。然而,对于机器学习新手来说,梯度下降的概念可能稍显晦涩。本文旨在帮助您直观理解梯度下降的工作原理。
图灵猫-Arwin1 年前
python·梯度下降
梯度下降算法(Gradient Descent)梯度下降算法,这个在机器学习中非常常见的算法,可以用下山的例子来形象地解释。想象一下,你在一座山的顶端,目标是要以最快的速度下到山底。但由于浓雾遮挡,你看不清整座山的轮廓,只能感觉到脚下的坡度。这时候,你会选择沿着最陡峭的坡度方向走,因为那很可能是下山最快的路线。在梯度下降算法中,”下山”就是寻找损失函数的最小值,”最陡峭的坡度”则对应着梯度,我们通过计算梯度并不断调整参数,来逐渐接近这个最小值。
PleaseBrave1 年前
人工智能·深度学习·神经网络·激活函数·梯度下降·梯度消失·梯度爆炸
【神经网络 基本知识整理】(激活函数) && (梯度+梯度下降+梯度消失+梯度爆炸)我们知道神经网络中前一层与后面一层的连接可以用y = wx + b表示,这其实就是一个线性表达,即便模型有无数的隐藏层,简化后依旧是上述的线性表达式,那么模型的拟合能力非常受限。因此引入了激活函数σ,y = σ(wx + b),使得模型能够拟合非线性的问题。常用的激活函数详解可参考👉激活函数详解 ///激活函数详解