深度学习神经网络分类原理

每一个神经元做的是一个类似回归的操作

最后一层是softmax函数,每一个输出就会变成一个0到1之间的数,也就是概率,然后他们之间的和加起来等于1,到底是哪一个分类就是看哪个神经元的这个值最大。

那么如何算损失呢:

加入现在有0.2,0.7,0.1,会把他们变成one-hot编码,比如0.2就变成010,损失就是在他们之间求损失,使用交叉熵公式。

用每一个真实值yic乘以log概率值:

与均方误差来计算损失相比,交叉熵更能捕捉到预测变化的差异

相关推荐
KG_LLM图谱增强大模型2 小时前
Vgent:基于图的多模态检索推理增强生成框架GraphRAG,突破长视频理解瓶颈
大数据·人工智能·算法·大模型·知识图谱·多模态
AKAMAI2 小时前
企业如何平衡AI创新与风险
人工智能·云原生·云计算
半tour费3 小时前
TextCNN-NPU移植与性能优化实战
python·深度学习·分类·cnn·华为云
TDengine (老段)3 小时前
优化 TDengine IDMP 面板编辑的几种方法
人工智能·物联网·ai·时序数据库·tdengine·涛思数据
数据的世界014 小时前
Visual Studio 2026 正式发布:AI 原生 IDE 与性能革命的双向突破
ide·人工智能·visual studio
shayudiandian5 小时前
深度学习中的激活函数全解析:该选哪一个?
人工智能·深度学习
视界先声6 小时前
如何选择合适的养老服务机器人
人工智能·物联网·机器人
RPA机器人就选八爪鱼6 小时前
RPA财务机器人:重塑财务效率,数字化转型的核心利器
大数据·数据库·人工智能·机器人·rpa
腾讯WeTest6 小时前
Al in CrashSight ——基于AI优化异常堆栈分类模型
人工智能·分类·数据挖掘