损失函数

失散133 天前
人工智能·深度学习·神经网络·损失函数
深度学习——03 神经网络(2)-损失函数作用:衡量模型预测结果(y^\hat{y}y^)和真实标签(yyy)的差异,差异越大,说明模型参数“质量越差”(需要调整);
瓦香钵钵鸡7 天前
决策树·随机森林·机器学习·线性回归·最小二乘法·损失函数·信息熵
机器学习通关秘籍|Day 03:决策树、随机森林与线性回归目录一、决策树1、概念2、基于信息增益的决策树的建立(1)信息熵(2)信息增益(3)信息增益决策树建立步骤
爱分享的飘哥16 天前
人工智能·深度学习·神经网络·优化器·损失函数·mlp·训练循环
第三十篇:AI的“思考引擎”:神经网络、损失与优化器的核心机制【总结前面2】在前面的章节中,我们像一个个勤劳的“AI工匠”,打造了许多核心“零件”: 我们学会了Tensor这个“原子”,能将数据化为AI的语言(第10.1章)。 我们知道了损失函数是AI的“成绩单”,能衡量对错(第6章)。 我们理解了反向传播是AI的“反思录”,能追溯错误(第6章)。 我们还掌握了优化器是AI的“纠错笔”,能调整认知(第7章)。 但这些“零件”是如何协同工作,共同驱动一个AI模型进行**“学习”**的呢?它们之间隐藏着怎样的“流水线”?
Jcldcdmf2 个月前
机器学习·损失函数·softmax·交叉熵
激活层为softmax时,CrossEntropy损失函数对激活层输入Z的梯度∂ L ∂ Z = y ^ − y \frac{\partial L}{\partial Z}=\hat{y}-y ∂Z∂L=y^−y 其中 y y y为真实值,采用one-hot编码, y ^ \hat{y} y^为softmax输出的预测值
摘取一颗天上星️2 个月前
人工智能·深度学习·机器学习·损失函数·梯度下降
深入解析机器学习的心脏:损失函数及其背后的奥秘当你在手机地图中输入目的地时,导航软件如何从千万条路径中选出最优解?当邮箱自动将广告邮件归类到垃圾箱,它又是如何“学会”判断的?这背后有一个默默无闻却至关重要的指挥官——损失函数。
ZWaruler3 个月前
人工智能·python·神经网络·机器学习·损失函数
十三: 神经网络的学习这里所说的“学习”是指从训练数据中自动获取最优权重参数的过程。为了使神经网络能进行学习,将导入损失函数这一指标。而学习的目的就是以该损失函数为基准,找出能使它的值达到最小的权重参数。为了找出尽可能小的损失函数的值,我们将介绍利用了函数斜率的梯度法。
闲人编程3 个月前
人工智能·python·深度学习·损失函数·激活函数·relu·分类回归
深度学习:损失函数与激活函数全解析在深度学习中,损失函数和激活函数是模型训练过程中两个最核心的组件。损失函数衡量模型预测与真实值之间的差异,为优化算法提供方向;而激活函数为神经网络引入非线性能力,使网络能够学习复杂模式。本文将全面解析深度学习中常见的损失函数和激活函数,包括数学原理、特性分析、适用场景以及Python实现,并通过实验对比不同组合的效果。
夜松云4 个月前
人工智能·机器学习·损失函数·梯度下降·前向传播·数学基础·交叉验证
机器学习中的距离度量与优化方法:从曼哈顿距离到梯度下降目录书接上文KNN算法深度解析:从决策边界可视化到鸢尾花分类实战-CSDN博客文章浏览阅读660次,点赞11次,收藏10次。本文系统讲解了KNN算法的决策边界形成机制、Scikit-learn实现细节及鸢尾花分类实战,涵盖K值选择对边界的影响、API参数解析、数据预处理(归一化/标准化)和数据集划分方法,通过代码示例和可视化分析帮助读者掌握KNN的核心应用技巧。https://blog.csdn.net/qq_58364361/article/details/147201792?spm=1011.2415
callinglove4 个月前
损失函数·交叉熵
交叉熵在机器学习中的应用解析交叉熵(Cross-Entropy)是信息论和机器学习中的一个重要概念,用于衡量两个概率分布之间的差异。它在分类任务(如逻辑回归、神经网络)中常作为损失函数使用。
@Mr_LiuYang5 个月前
语义分割·损失函数·边界提取·边界损失
Rethinking BiSeNet For Real-time Semantic Segmentation细节损失函数学习更多损失函数学习见:深度学习pytorch之22种损失函数数学公式和代码定义本博客为文章“Rethinking BiSeNet For Real-time Semantic Segmentation”损失函数学习和使用 论文地址:https://arxiv.org/pdf/2104.13188 代码地址:https://github.com/MichaelFan01/STDC-Seg
xidianjiapei0015 个月前
人工智能·深度学习·分类·损失函数·交叉熵
一文读懂深度学习中的损失函数quantifying loss —— 作用、分类和示例代码在深度学习中,quantifying loss(量化损失)是指通过数学方法计算模型预测值与真实值之间的差异,以衡量模型的性能。损失函数(Loss Function)是量化损失的核心工具,它定义了模型预测值与真实值之间的误差大小。损失值越小,表示模型的预测越接近真实值。
丶21367 个月前
人工智能·分类·损失函数
【分类】【损失函数】处理类别不平衡:CEFL 和 CEFL2 损失函数的实现与应用在深度学习中的分类问题中,类别不平衡问题是常见的挑战之一。尤其在面部表情分类任务中,不同表情类别的样本数量可能差异较大,比如“开心”表情的样本远远多于“生气”表情。面对这种情况,普通的交叉熵损失函数容易导致模型过拟合到大类样本,忽略少数类样本。为了有效解决类别不平衡问题,Class-balanced Exponential Focal Loss (CEFL) 和 Class-balanced Exponential Focal Loss 2 (CEFL2) 损失函数应运而生。
余胜辉7 个月前
人工智能·深度学习·机器学习·损失函数·交叉熵
【深度学习】交叉熵:从理论到实践在深度学习的广阔领域中,损失函数是模型训练的核心驱动力。而交叉熵作为其中的重要一员,扮演着不可或缺的角色。无论是图像分类、自然语言处理还是语音识别,交叉熵都在默默地推动着模型的优化与进步。本文将带你深入理解交叉熵的原理、应用场景以及如何在实际项目中灵活运用它。通过代码示例、实际案例和可视化图表,我们将一步步揭开交叉熵的神秘面纱。
chencjiajy8 个月前
深度学习·机器学习·损失函数
机器学习基础:极大似然估计与交叉熵考虑我们在训练一个参数为 ϕ \boldsymbol\phi ϕ、输入为 x \mathbf{x} x的模型 f [ x , ϕ ] \mathbf{f}[\mathbf{x},\boldsymbol{\phi}] f[x,ϕ]。如果转换一下视角,计算模型在给定输入 x \mathbf{x} x时对可能的输出 y \mathbf{y} y计算条件概率分布 P r ( y ∣ x ) Pr(\mathbf{y}|\mathbf{x}) Pr(y∣x)。对每一个样本 ( x i , y i ) (\mathb
王亭_6668 个月前
人工智能·pytorch·深度学习·损失函数
深度学习中损失函数(loss function)介绍在深度学习的宏伟城堡中,损失函数扮演着国王的角色,它决定了模型训练的方向和目标。损失函数,也被称为代价函数,是衡量模型预测与实际结果之间差异的函数。在深度学习的训练过程中,我们的目标就是最小化这个损失函数,就像是在一场游戏中,我们的目标是获得尽可能低的失误和丢分。
goomind8 个月前
人工智能·深度学习·损失函数
深度学习常用损失函数介绍均方误差损失又称为二次损失、L2损失,常用于回归预测任务中。均方误差函数通过计算预测值和实际值之间距离(即误差)的平方来衡量模型优劣。即预测值和真实值越接近,两者的均方差就越小。
lishanlu13610 个月前
目标检测·损失函数·iou损失函数·边界框回归损失
目标检测中的损失函数损失函数是用来衡量模型与数据的匹配程度的,也是模型权重更新的基础。计算损失产生模型权重的梯度,随后通过反向传播算法,模型权重得以更新进而更好地适应数据。一般情况下,目标损失函数包含两部分损失,一个是目标框分类损失,一个是目标框定位损失,两者共同构成目标检测问题的损失形式。
Nicolas89310 个月前
深度学习·神经网络·损失函数·参数初始化·深度学习模型训练·规范化
【大模型理论篇】大模型相关的周边技术分享-关于《NN and DL》的笔记本文所要介绍的一本书《Neural Networks and Deep Learning》,该书作者Michael Nielsen,Y Combinator Research的研究员,是多年之前自己看的一本基础书籍,很适合入门了解一些关于深度学习的概念知识,当然也包含了一些小的案例。刚好有篇当年存档的小笔记,做一下分享。
程序员非鱼10 个月前
人工智能·深度学习·计算机视觉·损失函数
深度学习中的损失函数详解在深度学习的世界中,损失函数(Loss Function)是最关键的组成部分之一,它帮助我们评估模型的预测与真实标签之间的差距。无论是回归问题、分类问题,还是更复杂的生成模型问题,损失函数都扮演者核心角色。通过最小化损失函数,模型能够逐渐优化其性能,从而提升对未见数据的泛化能力。
@TangYi1 年前
python·深度学习·计算机视觉·损失函数·医学图像分割·血管分割
MICCAI 2024Centerline Boundary Dice Loss for Vascular Segmentation彭成世1, 捷斯·胡1,2, 颜武洋1,2, 齐乐高1, 韦磊1, 马霆1,2,3,4邮箱:tma@hit.edu.cn