logistic回归详解

为什么不直接统计标签数和预测结果数,计算精度?

因为

  • 存在梯度为0的情况
  • 梯度不连续

为什么叫logistic回归

logistic是因为加了一个sigmoid函数,将输出预测值映射到【0,1】

有时候使用MSE损失函数,拟合

有时候使用cross entropy==》 分类问题

softmax解决多分类问题,让大的概率值更大

交叉熵损失详解 cross entropy

kl散度,两个分布重合的话,kl散度等于0,因为他们很整齐

熵:不确定性,惊喜的衡量度,稳定度

二分类的公式推导

cross entropy 越小越好,优化起来速度更快,在pytorch中,把softmax和log打包到一起了

pytorch中的inplace会改变输入x的值

feature缩放

有两种方式

  1. 图像数据增强
python 复制代码
# 对3通道进行归一化处理   imagenet数据集上的
transforms.Normalize(mean=[0.485,0.456,0.406],
                     std=[0.229,0.224,0.225])
python 复制代码
 #  批归一化 最后生成通道数      28*28
x = torch.rand(100,16,784)
layer = nn.BatchNorm1d(16)
out = layer(x)

#[16]   均值
print(layer.running_mean,layer.running_mean.size())

# 方差
print(layer.running_var)
  1. 批归一化
相关推荐
湫兮之风16 小时前
Opencv: cv::LUT()深入解析图像块快速查表变换
人工智能·opencv·计算机视觉
Christo317 小时前
TFS-2018《On the convergence of the sparse possibilistic c-means algorithm》
人工智能·算法·机器学习·数据挖掘
qq_5088234017 小时前
金融量化指标--2Alpha 阿尔法
大数据·人工智能
黑金IT17 小时前
`.cursorrules` 与 `.cursorcontext`:Cursor AI 编程助手时代下的“双轨配置”指南
人工智能
非门由也18 小时前
《sklearn机器学习——管道和复合估计器》回归中转换目标
机器学习·回归·sklearn
dlraba80218 小时前
基于 OpenCV 的信用卡数字识别:从原理到实现
人工智能·opencv·计算机视觉
IMER SIMPLE18 小时前
人工智能-python-深度学习-经典神经网络AlexNet
人工智能·python·深度学习
小憩-20 小时前
【机器学习】吴恩达机器学习笔记
人工智能·笔记·机器学习
却道天凉_好个秋21 小时前
深度学习(二):神经元与神经网络
人工智能·神经网络·计算机视觉·神经元
UQI-LIUWJ21 小时前
unsloth笔记:运行&微调 gemma
人工智能·笔记·深度学习