神经网络之经验风险最小化

🧠 一、基本思想

在机器学习中,我们希望找到一个函数(模型)(f(x))( f(x) )(f(x)),使它在真实数据分布 (P(X,Y))( P(X, Y) )(P(X,Y)) 下的**期望风险(真实风险)**最小化:

R(f)=E(X,Y)∼P[L(f(X),Y)] R(f) = \mathbb{E}_{(X,Y)\sim P}[L(f(X), Y)] R(f)=E(X,Y)∼P[L(f(X),Y)]

其中

  • (L(⋅,⋅))( L(\cdot,\cdot) )(L(⋅,⋅)):损失函数(如平方误差、交叉熵等),
  • (f(X))( f(X) )(f(X)):模型的预测输出,
  • (Y)( Y )(Y):真实标签。

但是,真实分布 (P(X,Y))( P(X, Y) )(P(X,Y)) 是未知的,因此我们无法直接计算这个期望风险。


⚙️ 二、经验风险(Empirical Risk)

我们只有一个样本数据集:
S=(x1,y1),(x2,y2),...,(xn,yn) S = {(x_1, y_1), (x_2, y_2), \ldots, (x_n, y_n)} S=(x1,y1),(x2,y2),...,(xn,yn)

经验风险定义为:
Remp(f)=1n∑i=1nL(f(xi),yi) R_{\text{emp}}(f) = \frac{1}{n} \sum_{i=1}^{n} L(f(x_i), y_i) Remp(f)=n1i=1∑nL(f(xi),yi)

也就是在训练样本上的平均损失。


🎯 三、经验风险最小化原则(ERM Principle)

ERM 的思想就是用经验风险来近似真实风险,并在此基础上选择模型:
f∗=arg⁡min⁡f∈FRemp(f) f^* = \arg\min_{f \in \mathcal{F}} R_{\text{emp}}(f) f∗=argf∈FminRemp(f)

换句话说:

我们用训练集的平均损失作为目标函数,找到使其最小的模型。


📉 四、存在的问题

纯粹的 ERM 容易导致 过拟合(overfitting)

模型在训练集上表现很好,但在新样本(测试集)上表现较差。


🛡️ 五、改进:结构风险最小化(SRM)

为了解决过拟合问题,引入了 结构风险最小化(Structural Risk Minimization) ,在经验风险的基础上加上一个正则化项:
Rsrm(f)=Remp(f)+λ,Ω(f) R_{\text{srm}}(f) = R_{\text{emp}}(f) + \lambda , \Omega(f) Rsrm(f)=Remp(f)+λ,Ω(f)

其中:

  • (Ω(f))( \Omega(f) )(Ω(f)):模型复杂度的度量(正则项);
  • (λ)( \lambda )(λ):平衡经验风险与模型复杂度的系数。

这就是许多现代机器学习算法(如岭回归、Lasso、SVM、神经网络正则化等)的理论基础。


✅ 六、总结对比

概念 定义 优缺点
经验风险最小化 (ERM) 在训练集上最小化平均损失 简单易行,但易过拟合
结构风险最小化 (SRM) 在 ERM 基础上加入正则项 抑制过拟合,更具泛化能力
相关推荐
美酒没故事°1 天前
Open WebUI安装指南。搭建自己的自托管 AI 平台
人工智能·windows·ai
云烟成雨TD1 天前
Spring AI Alibaba 1.x 系列【6】ReactAgent 同步执行 & 流式执行
java·人工智能·spring
简简单单做算法1 天前
基于GA遗传优化的Transformer-LSTM网络模型的时间序列预测算法matlab性能仿真
深度学习·matlab·lstm·transformer·时间序列预测·ga遗传优化·电池剩余寿命预测
AI攻城狮1 天前
用 Obsidian CLI + LLM 构建本地 RAG:让你的笔记真正「活」起来
人工智能·云原生·aigc
鸿乃江边鸟1 天前
Nanobot 从onboard启动命令来看个人助理Agent的实现
人工智能·ai
lpfasd1231 天前
基于Cloudflare生态的应用部署与开发全解
人工智能·agent·cloudflare
俞凡1 天前
DevOps 2.0:智能体如何接管故障修复和基础设施维护
人工智能
comedate1 天前
[OpenClaw] GLM 5 关于电影 - 人工智能 - 的思考
人工智能·电影评价
财迅通Ai1 天前
6000万吨产能承压 卫星化学迎来战略窗口期
大数据·人工智能·物联网·卫星化学
liliangcsdn1 天前
Agent Memory智能体记忆系统的示例分析
数据库·人工智能·全文检索