logistic回归详解

为什么不直接统计标签数和预测结果数,计算精度?

因为

  • 存在梯度为0的情况
  • 梯度不连续

为什么叫logistic回归

logistic是因为加了一个sigmoid函数,将输出预测值映射到【0,1】

有时候使用MSE损失函数,拟合

有时候使用cross entropy==》 分类问题

softmax解决多分类问题,让大的概率值更大

交叉熵损失详解 cross entropy

kl散度,两个分布重合的话,kl散度等于0,因为他们很整齐

熵:不确定性,惊喜的衡量度,稳定度

二分类的公式推导

cross entropy 越小越好,优化起来速度更快,在pytorch中,把softmax和log打包到一起了

pytorch中的inplace会改变输入x的值

feature缩放

有两种方式

  1. 图像数据增强
python 复制代码
# 对3通道进行归一化处理   imagenet数据集上的
transforms.Normalize(mean=[0.485,0.456,0.406],
                     std=[0.229,0.224,0.225])
python 复制代码
 #  批归一化 最后生成通道数      28*28
x = torch.rand(100,16,784)
layer = nn.BatchNorm1d(16)
out = layer(x)

#[16]   均值
print(layer.running_mean,layer.running_mean.size())

# 方差
print(layer.running_var)
  1. 批归一化
相关推荐
Luzem03192 分钟前
使用朴素贝叶斯对自定义数据集进行分类
人工智能·机器学习
小菜鸟博士2 分钟前
手撕Vision Transformer -- Day1 -- 基础原理
人工智能·深度学习·学习·算法·面试
找方案16 分钟前
智慧城市(城市大脑)建设方案
人工智能·智慧城市·城市大脑
老艾的AI世界22 分钟前
AI定制祝福视频,广州塔、动态彩灯、LED表白,直播互动新玩法(附下载链接)
图像处理·人工智能·深度学习·神经网络·目标检测·机器学习·ai·ai视频·ai视频生成·ai视频制作
灰灰老师1 小时前
数据分析系列--[11] RapidMiner,K-Means聚类分析(含数据集)
人工智能·算法·机器学习·数据挖掘·数据分析·kmeans·rapidminer
kyle~1 小时前
机器学习--概览
人工智能·机器学习
追求源于热爱!2 小时前
记4(可训练对象+自动求导机制+波士顿房价回归预测
图像处理·人工智能·算法·机器学习·回归
前端达人2 小时前
「AI学习笔记」深度学习进化史:从神经网络到“黑箱技术”(三)
人工智能·笔记·深度学习·神经网络·学习
AIGC大时代2 小时前
对比DeepSeek、ChatGPT和Kimi的学术写作撰写引言能力
数据库·论文阅读·人工智能·chatgpt·数据分析·prompt
神经美学_茂森2 小时前
【方法论】ChatGPT与DeepSeek的联合应用,提升工作效率的新解决方案
人工智能·chatgpt