「优化器 + 损失函数 + 激活函数」的完整配对速查表

一、通用核心规则(先记这 4 句)

  1. 隐藏层 :只负责非线性,不跟损失 / 优化器绑定
  2. 输出层激活 + 损失函数 = 必须严格配对
  3. 优化器通用 :绝大多数任务优先用 Adam
  4. 损失只算在输出层,梯度自动回传更新所有

二、全套配对速查表(直接背 / 直接用)

任务场景 隐藏层激活(推荐) 输出层激活 标准损失函数 推荐优化器
回归(任意实数) ReLU / GELU 无(线性) MSE / MAE / HuberLoss Adam / SGD
回归(输出≥0) ReLU / GELU ReLU MSE Adam
二分类(0/1) ReLU / GELU Sigmoid BCE(二元交叉熵) Adam
多分类(互斥类别) ReLU / GELU Softmax CrossEntropyLoss(交叉熵) Adam
多标签分类(多标签同时存在) ReLU / GELU Sigmoid(逐标签) BCEWithLogitsLoss / BCE Adam
Transformer / LLM / 大模型 GELU(主流) 任务决定(分类用 Softmax,生成用 Linear+Logits) 对应任务损失 AdamW(比 Adam 更稳)

三、极简口诀(10 秒记住)

  • 回归:线性输出 + MSE
  • 二分类:Sigmoid + BCE
  • 多分类:Softmax + 交叉熵
  • 隐藏层:ReLU 传统,GELU 现代
  • 优化器:默认 Adam,大模型用 AdamW

四、关键易错点(必看)

  1. CrossEntropyLoss 内部自带 Softmax 。 PyTorch:模型输出层不要手动写 Softmax,直接输 logits 即可
  2. BCEWithLogits = Sigmoid + BCE同样:输出层可以不写 Sigmoid,直接丢进损失
  3. 隐藏层永远不用 Sigmoid / Tanh(梯度消失)
  4. 优化器只管更新参数,和任务无关,只影响训练速度 / 稳定性

五、一句话终极总结

  • 隐藏层:ReLU / GELU(加非线性)
  • 输出层:按任务选激活
  • 损失:和输出激活严格配对
  • 优化器:默认 Adam 通吃

四大场景终极对比(背这个就够)

场景 输出性质 简单例子 输出层激活 常用损失
回归 连续数值 房价 238.6 万、气温 26.8℃ 线性 / ReLU MSE
二分类 二选一(是 / 否) 图片是猫?是 / 否 Sigmoid BCE
多分类(互斥) 多选一 动物:猫 / 狗 / 鸟(只选一个) Softmax CrossEntropy
多标签分类 多选多(共存) 图片:猫 + 狗 + 沙发(同时存在) Sigmoid BCE
相关推荐
普密斯科技12 分钟前
齿轮平面度与正反面智能检测方案:3D视觉技术破解精密制造品控难题
人工智能·计算机视觉·平面·3d·自动化·视觉检测
米猴设计师18 分钟前
PS图案融合到褶皱布料上怎么弄?贴图教程
图像处理·人工智能·贴图·ps·nanobanana
123_不打狼22 分钟前
基于UNET的语义分割
人工智能·语义分割
实在智能RPA40 分钟前
Agent 如何处理流程中的异常情况?2026年AI Agent架构工程与自愈机制深度拆解
人工智能·ai·架构
十铭忘43 分钟前
局部重绘3——FLUX-Fill的Lora训练
人工智能·深度学习·机器学习
碳基硅坊1 小时前
Dify v1.13.x 版本更新速览:从人机协作到架构升级
人工智能·dify
IT_陈寒1 小时前
SpringBoot自动配置把我都整不会了
前端·人工智能·后端
w_t_y_y1 小时前
python AI工程(二)python实现skill+cli
人工智能
朝新_1 小时前
【Spring AI 】核心知识体系梳理:从入门到实战
java·人工智能·spring
人工智能AI技术1 小时前
C#调用大模型
人工智能