pytorch学习-线性神经网络——softmax回归+损失函数+图片分类数据集

1.softmax回归

Softmax回归(Softmax Regression)是一种常见的多分类模型,可以用于将输入变量映射到多个类别的概率分布中。softmax回归是机器学习中非常重要并且经典的模型,虽然叫回归,实际上是一个分类问题

1.1分类与回归

回归是估计一个连续值,分类是预测一个连续的类别

示例:

1.2从回归到多类分类

区别:分类问题从单输出变成了多输出,输出个数为类别个数

注:类别可能是一个数,也可能是一串字符串(例如A类,1类等)

一位有效编码:规定的在一个位置上,其值为0或者1,1表示有效,0表示无效,有效的那一位为1,其余位全为0。

1.2.1无校验比例

不关心置信度的值是多少,只关心正确类别的置信度的值要远远高于其他非正确类的置信度。

1.2.2校验比例

1.2.3softmax和交叉熵损失

注:一般来说使用真实概率与预测概率的区别来作为损失

不关心非正确类的预测值,只关心正确类的预测值有多大

1.2.4总结

softmax回归是一个多分类分类模型

使用softmax操作得到每个类的预测置信概率,非负且和为1

2.损失函数

损失函数------用来衡量预测值和真实值之间的区别。

2.1常用损失函数

2.1.1 L2 Loss(均方损失)

注:当y和y' 相距比较远(横轴到零点的距离越远),梯度越大,对参数的更新越多,更新的幅度越大,反之亦然。

2.1.2 L1 Loss(绝对值损失函数)

2.1.3 Huber's Robust Loss(Huber 鲁棒损失)

3.图片分类数据集

实际操作和代码见链接

3.5. 图像分类数据集 --- 动手学深度学习 2.0.0 documentation

相关推荐
聆风吟º3 小时前
CANN runtime 实战指南:异构计算场景中运行时组件的部署、调优与扩展技巧
人工智能·神经网络·cann·异构计算
聆风吟º6 小时前
CANN runtime 全链路拆解:AI 异构计算运行时的任务管理与功能适配技术路径
人工智能·深度学习·神经网络·cann
执笔论英雄6 小时前
【大模型学习cuda】入们第一个例子-向量和
学习
wdfk_prog6 小时前
[Linux]学习笔记系列 -- [drivers][input]input
linux·笔记·学习
Gary Studio9 小时前
rk芯片驱动编写
linux·学习
mango_mangojuice9 小时前
Linux学习笔记(make/Makefile)1.23
java·linux·前端·笔记·学习
lingggggaaaa9 小时前
安全工具篇&动态绕过&DumpLsass凭据&Certutil下载&变异替换&打乱源头特征
学习·安全·web安全·免杀对抗
PP东9 小时前
Flowable学习(二)——Flowable概念学习
java·后端·学习·flowable
学电子她就能回来吗9 小时前
深度学习速成:损失函数与反向传播
人工智能·深度学习·学习·计算机视觉·github
爱吃泡芙的小白白9 小时前
突破传统:CNN卷积层(普通/空洞)核心技术演进与实战指南
人工智能·神经网络·cnn·卷积层·空洞卷积·普通卷积