深度学习神经网络分类原理

每一个神经元做的是一个类似回归的操作

最后一层是softmax函数,每一个输出就会变成一个0到1之间的数,也就是概率,然后他们之间的和加起来等于1,到底是哪一个分类就是看哪个神经元的这个值最大。

那么如何算损失呢:

加入现在有0.2,0.7,0.1,会把他们变成one-hot编码,比如0.2就变成010,损失就是在他们之间求损失,使用交叉熵公式。

用每一个真实值yic乘以log概率值:

与均方误差来计算损失相比,交叉熵更能捕捉到预测变化的差异

相关推荐
Hello Mr.Z28 分钟前
使用pytorch创建/训练/推理OCR模型
人工智能·pytorch·python
wan5555cn32 分钟前
文字生视频的“精准”代码设定的核心原则本质是最小化文本语义与视频内容的KL散度
人工智能·笔记·深度学习·音视频
IT_陈寒1 小时前
Python异步编程的7个致命误区:90%开发者踩过的坑及高效解决方案
前端·人工智能·后端
老猿讲编程1 小时前
存算一体:重构AI计算的革命性技术(1)
人工智能·重构
easy20201 小时前
从 Excel 趋势线到机器学习:拆解 AI 背后的核心框架
人工智能·笔记·机器学习
天机️灵韵1 小时前
OpenAvatarChat项目在Windows本地运行指南
人工智能·开源项目·openavatarchat
DeeplyMind2 小时前
AMD KFD驱动技术分析16:SVM Aperture
人工智能·机器学习·amdgpu·rocm·kfd
非门由也2 小时前
《sklearn机器学习——聚类性能指标》Davies-Bouldin Index (戴维斯-博尔丁指数)
人工智能·机器学习·支持向量机
limengshi1383922 小时前
人工智能学习:LR和SVM的联系与区别?
人工智能·算法·机器学习·支持向量机
爆改模型2 小时前
【CVPR2025】计算机视觉|即插即用|DSSA:即插即用!显著提升模型性能的双重稀疏注意力模块!
人工智能·计算机视觉