深度学习基本函数

1、softmax归一化函数

把模型输出的score转换为概率,并且通过指数运算,放大了score之间的差距

python 复制代码
#在pytorch中这样引用
import torch
import torch.nn.functional as F

scores = torch.tensor([3.2, 1.3, 0.2])
print(F.softmax(scores, dim=0))
# 输出: tensor([0.8338, 0.1247, 0.0415])

# 原始算法如下
import numpy as np
a=np.array([1,2,3])

exp2=np.exp(a)
print(exp2/np.sum(exp2)) # [0.09003057 0.24472847 0.66524096]

print(np.max(a))  # 3
print(a-np.max(a)) # [-2 -1  0]
exp=np.exp(a-np.max(a))  # 减去最大值防止数值爆炸
print(exp) # [0.13533528 0.36787944 1.        ]
print(exp/np.sum(exp))  # [0.09003057 0.24472847 0.66524096]

2、损失函数

模型输出 :预测概率分布(例如,通过 Softmax 得到 [0.834, 0.125, 0.041]

真实情况 :真实标签的分布(例如,图片真实是"猫",我们用 one-hot 编码表示为 [1, 0, 0]

交叉熵计算过程:

H(P,Q)=−[P(猫)⋅log⁡(Q(猫))+P(狗)⋅log⁡(Q(狗))+P(兔子)⋅log⁡(Q(兔子))]

=−[(1)⋅log⁡(0.834)+(0)⋅log⁡(0.125)+(0)⋅log⁡(0.041)]

=−[log⁡(0.834)+0+0]

=−log⁡(0.834)

python 复制代码
#使用pytorch计算
import torch
import torch.nn as nn

# 定义损失函数
criterion = nn.CrossEntropyLoss()
outputs = torch.tensor([[3.2, 1.3, 0.2]]) 
labels = torch.tensor([0])

# 计算损失
loss = criterion(outputs, labels)
print(loss)


#手工这样计算
import numpy as np
a=np.array([3.2, 1.3, 0.2])
s=np.exp(a)/np.sum(np.exp(a))
print(-1*np.log(s[0]))

不同的任务,选择不同的损失函数,常见的

分类任务 :首选交叉熵

回归任务 :首选MSEMAE(MSE更常用,若数据有较多离群点可考虑MAE)。

相关推荐
endcy20161 小时前
基于Spring AI的RAG和智能体应用实践
人工智能·ai·系统架构
Blossom.1182 小时前
移动端部署噩梦终结者:动态稀疏视觉Transformer的量化实战
java·人工智能·python·深度学习·算法·机器学习·transformer
FPGA小迷弟2 小时前
ChatGPT回答用AI怎么怎么赚钱
大数据·人工智能
轻微的风格艾丝凡2 小时前
卷积的直观理解
人工智能·深度学习·神经网络·算法·计算机视觉·matlab·cnn
月下倩影时2 小时前
视觉进阶篇——机器学习训练过程(手写数字识别,量大管饱需要耐心)
人工智能·学习·机器学习
PixelMind2 小时前
【超分辨率专题】HYPIR:扩散模型先验与 GAN 对抗训练相结合的新型图像复原框架
人工智能·生成对抗网络·扩散模型·图像复原
说私域3 小时前
从裂变能力竞争到技术水平竞争:开源AI智能名片链动2+1模式S2B2C商城小程序对微商企业竞争格局的重塑
人工智能·小程序·开源
xybDIY3 小时前
基于 Tuya.AI 开源的大模型构建智能聊天机器人
人工智能·机器人·开源
这张生成的图像能检测吗3 小时前
(论文速读)基于DCP-MobileViT网络的焊接缺陷识别
图像处理·深度学习·计算机视觉·可视化·缺陷识别·焊缝缺陷
智慧地球(AI·Earth)5 小时前
GPT-5.1发布!你的AI更暖更智能!
人工智能·gpt·神经网络·aigc·agi