机器学习、深度学习、信号处理领域常用公式速查表
一、机器学习领域核心公式
覆盖分类、回归、聚类、概率模型、优化算法等主流任务,聚焦模型原理与评估核心公式。
1. 数据与特征相关公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 特征矩阵维度表示 | X∈Rn×dX \in \mathbb{R}^{n \times d}X∈Rn×d | Feature Matrix Dimension | 特征矩阵XXX为nnn行ddd列,nnn为样本数,ddd为特征维度 | 所有机器学习任务中数据的矩阵表示 |
| 样本均值 | xˉ=1n∑i=1nxi\bar{x} = \frac{1}{n} \sum_{i=1}^n x_ixˉ=n1∑i=1nxi | Sample Mean | 单个特征的样本均值,反映数据中心趋势 | 数据预处理(归一化、标准化) |
| 样本方差 | σ2=1n−1∑i=1n(xi−xˉ)2\sigma^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2σ2=n−11∑i=1n(xi−xˉ)2 | Sample Variance | 单个特征的样本方差,反映数据离散程度 | 数据分布分析、特征重要性评估 |
| 标准化(Z-Score) | xstd=x−xˉσx_{std} = \frac{x - \bar{x}}{\sigma}xstd=σx−xˉ | Standardization | 将特征缩放到均值为0、方差为1的分布 | 线性模型(LR、SVM)、神经网络输入预处理 |
| 归一化(Min-Max) | xnorm=x−xminxmax−xminx_{norm} = \frac{x - x_{min}}{x_{max} - x_{min}}xnorm=xmax−xminx−xmin | Min-Max Normalization | 将特征缩放到[0,1]区间 | 对输入范围敏感的模型(如神经网络、K-Means) |
| 特征映射(核函数示例) | K(xi,xj)=exp(−∣xi−xj∣22σ2)K(x_i, x_j) = \exp\left(-\frac{|x_i - x_j|^2}{2\sigma^2}\right)K(xi,xj)=exp(−2σ2∣xi−xj∣2) | Gaussian Kernel Function | 高斯核函数,将原始特征映射到高维空间 | SVM、核方法中的非线性特征转换 |
2. 分类任务核心公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 逻辑回归预测函数 | y^=σ(wTx+b)=11+e−(wTx+b)\hat{y} = \sigma(w^T x + b) = \frac{1}{1 + e^{-(w^T x + b)}}y^=σ(wTx+b)=1+e−(wTx+b)1 | Logistic Regression Predict Function | 二分类预测函数,Sigmoid函数将线性输出映射到(0,1) | 二分类任务(如垃圾邮件检测、疾病诊断) |
| 交叉熵损失(二分类) | L=−1n∑i=1n[yilogy^i+(1−yi)log(1−y^i)]L = -\frac{1}{n} \sum_{i=1}^n [y_i \log \hat{y}_i + (1 - y_i) \log (1 - \hat{y}_i)]L=−n1∑i=1n[yilogy^i+(1−yi)log(1−y^i)] | Binary Cross-Entropy Loss | 衡量二分类预测概率与真实标签的差异 | 逻辑回归、二分类神经网络的损失函数 |
| 交叉熵损失(多分类) | L=−1n∑i=1n∑c=1Cyiclogy^icL = -\frac{1}{n} \sum_{i=1}^n \sum_{c=1}^C y_{ic} \log \hat{y}_{ic}L=−n1∑i=1n∑c=1Cyiclogy^ic | Categorical Cross-Entropy Loss | 衡量多分类预测概率分布与真实分布的差异 | 多分类任务(如图像分类)的损失函数 |
| 准确率 | Accuracy=TP+TNTP+TN+FP+FNAccuracy = \frac{TP + TN}{TP + TN + FP + FN}Accuracy=TP+TN+FP+FNTP+TN | Accuracy Score | 所有预测正确样本占总样本的比例 | 类别分布均衡的分类任务评估 |
| 精确率 | Precision=TPTP+FPPrecision = \frac{TP}{TP + FP}Precision=TP+FPTP | Precision Score | 预测为正类中实际正类的比例 | 需降低"误判正类"场景(如欺诈检测) |
| 召回率 | Recall=TPTP+FNRecall = \frac{TP}{TP + FN}Recall=TP+FNTP | Recall Score | 实际正类中被预测正类的比例 | 需降低"漏判正类"场景(如癌症筛查) |
| F1-Score | F1=2×Precision×RecallPrecision+RecallF1 = 2 \times \frac{Precision \times Recall}{Precision + Recall}F1=2×Precision+RecallPrecision×Recall | F1-Score | 精确率与召回率的调和平均,平衡两者 | 类别不平衡的分类任务评估 |
| ROC曲线横轴(FPR) | FPR=FPTN+FPFPR = \frac{FP}{TN + FP}FPR=TN+FPFP | False Positive Rate | 假正率,实际负类中被预测正类的比例 | ROC曲线绘制、模型泛化能力评估 |
| ROC曲线纵轴(TPR) | TPR=Recall=TPTP+FNTPR = Recall = \frac{TP}{TP + FN}TPR=Recall=TP+FNTP | True Positive Rate | 真正率,即召回率,实际正类中被预测正类的比例 | ROC曲线绘制、AUC计算 |
3. 回归任务核心公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 线性回归预测函数 | y^=wTx+b\hat{y} = w^T x + by^=wTx+b | Linear Regression Predict Function | 线性模型预测函数,输出连续值 | 简单线性回归(如房价预测、销量预测) |
| 均方误差(MSE) | MSE=1n∑i=1n(yi−y^i)2MSE = \frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)^2MSE=n1∑i=1n(yi−y^i)2 | Mean Squared Error | 预测值与真实值的平方误差均值 | 回归任务损失函数、模型评估 |
| 均方根误差(RMSE) | RMSE=1n∑i=1n(yi−y^i)2RMSE = \sqrt{\frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)^2}RMSE=n1∑i=1n(yi−y^i)2 | Root Mean Squared Error | MSE的平方根,与原始数据单位一致 | 回归任务评估,直观反映实际偏差大小 |
| 平均绝对误差(MAE) | MAE=1n∑i=1n∣yi−y^i∣MAE = \frac{1}{n} \sum_{i=1}^n |y_i - \hat{y}_i|MAE=n1∑i=1n∣yi−y^i∣ | Mean Absolute Error | 预测值与真实值的绝对误差均值 | 对异常值鲁棒的回归任务评估 |
| 决定系数(R²) | R2=1−∑i=1n(yi−y^i)2∑i=1n(yi−yˉ)2R^2 = 1 - \frac{\sum_{i=1}^n (y_i - \hat{y}i)^2}{\sum{i=1}^n (y_i - \bar{y})^2}R2=1−∑i=1n(yi−yˉ)2∑i=1n(yi−y^i)2 | Coefficient of Determination | 模型可解释方差占总方差的比例,衡量拟合效果 | 回归任务模型解释力评估,取值[0,1] |
| L1正则化项 | RL1(θ)=∣∣θ∣∣1=∑i=1d∣wi∣R_{L1}(\theta) = || \theta ||1 = \sum{i=1}^d |w_i|RL1(θ)=∣∣θ∣∣1=∑i=1d∣wi∣ | L1 Regularization Term | L1正则化(Lasso),使部分权重为0,实现特征选择 | 线性回归、逻辑回归的正则化,防止过拟合 |
| L2正则化项 | RL2(θ)=∣∣θ∣∣22=∑i=1dwi2R_{L2}(\theta) = || \theta ||2^2 = \sum{i=1}^d w_i^2RL2(θ)=∣∣θ∣∣22=∑i=1dwi2 | L2 Regularization Term | L2正则化(Ridge),使权重趋于较小值 | 线性模型、神经网络的正则化,防止过拟合 |
4. 聚类与概率模型公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| K-Means目标函数 | J=∑k=1K∑xi∈Ck∣xi−μk∣2J = \sum_{k=1}^K \sum_{x_i \in C_k} |x_i - \mu_k|^2J=∑k=1K∑xi∈Ck∣xi−μk∣2 | K-Means Objective Function | 所有样本到其所属聚类中心的欧氏距离平方和 | K-Means聚类算法的优化目标 |
| 高斯分布概率密度 | p(x∣μ,σ2)=12πσexp(−(x−μ)22σ2)p(x \mid \mu, \sigma^2) = \frac{1}{\sqrt{2\pi}\sigma} \exp\left(-\frac{(x - \mu)^2}{2\sigma^2}\right)p(x∣μ,σ2)=2π σ1exp(−2σ2(x−μ)2) | Gaussian Probability Density Function | 单变量正态分布的概率密度,描述连续数据分布 | 高斯混合模型、异常检测、概率统计分析 |
| 贝叶斯定理 | p(θ∣D)=p(D∣θ)p(θ)p(D)p(\theta \mid D) = \frac{p(D \mid \theta) p(\theta)}{p(D)}p(θ∣D)=p(D)p(D∣θ)p(θ) | Bayes' Theorem | 后验分布 = 似然×先验 / 证据,实现参数推断 | 贝叶斯模型(如贝叶斯回归、LDA)、概率推断 |
| 似然函数(高斯模型) | p(D∣μ,σ2)=∏i=1n12πσexp(−(xi−μ)22σ2)p(D \mid \mu, \sigma^2) = \prod_{i=1}^n \frac{1}{\sqrt{2\pi}\sigma} \exp\left(-\frac{(x_i - \mu)^2}{2\sigma^2}\right)p(D∣μ,σ2)=∏i=1n2π σ1exp(−2σ2(xi−μ)2) | Likelihood Function | 给定参数下观测到数据的概率,衡量参数拟合度 | 最大似然估计、模型参数优化 |
| 熵(信息熵) | H(X)=−∑x∈Xp(x)log2p(x)H(X) = -\sum_{x \in X} p(x) \log_2 p(x)H(X)=−∑x∈Xp(x)log2p(x) | Information Entropy | 随机变量X的不确定性度量,熵越大不确定性越高 | 决策树分裂准则、特征重要性评估、信息论 |
| 互信息 | I(X;Y)=H(X)−H(X∣Y)=∑x,yp(x,y)log2p(x,y)p(x)p(y)I(X;Y) = H(X) - H(X \mid Y) = \sum_{x,y} p(x,y) \log_2 \frac{p(x,y)}{p(x)p(y)}I(X;Y)=H(X)−H(X∣Y)=∑x,yp(x,y)log2p(x)p(y)p(x,y) | Mutual Information | 衡量两个随机变量的相关性,值越大关联越强 | 特征选择、聚类结果评估(NMI计算) |
5. 优化算法公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 梯度下降参数更新 | θ(t+1)=θ(t)−η∇θJ(θ(t))\theta^{(t+1)} = \theta^{(t)} - \eta \nabla_\theta J(\theta^{(t)})θ(t+1)=θ(t)−η∇θJ(θ(t)) | Gradient Descent Update | 沿代价函数梯度负方向更新参数,η\etaη为学习率 | 所有机器学习模型的参数优化 |
| 动量梯度下降更新 | v(t+1)=γv(t)+η∇θJ(θ(t))v^{(t+1)} = \gamma v^{(t)} + \eta \nabla_\theta J(\theta^{(t)})v(t+1)=γv(t)+η∇θJ(θ(t)) θ(t+1)=θ(t)−v(t+1)\theta^{(t+1)} = \theta^{(t)} - v^{(t+1)}θ(t+1)=θ(t)−v(t+1) | Momentum Gradient Descent | 引入动量项vvv,加速收敛,抑制震荡 | 神经网络、深度学习模型的优化 |
| Adam优化器更新 | m(t)=β1m(t−1)+(1−β1)∇θJm^{(t)} = \beta_1 m^{(t-1)} + (1-\beta_1) \nabla_\theta Jm(t)=β1m(t−1)+(1−β1)∇θJ v(t)=β2v(t−1)+(1−β2)(∇θJ)2v^{(t)} = \beta_2 v^{(t-1)} + (1-\beta_2) (\nabla_\theta J)^2v(t)=β2v(t−1)+(1−β2)(∇θJ)2 m^(t)=m(t)1−β1t,v^(t)=v(t)1−β2t\hat{m}^{(t)} = \frac{m^{(t)}}{1-\beta_1^t}, \hat{v}^{(t)} = \frac{v^{(t)}}{1-\beta_2^t}m^(t)=1−β1tm(t),v^(t)=1−β2tv(t) θ(t+1)=θ(t)−ηm^(t)v^(t)+ϵ\theta^{(t+1)} = \theta^{(t)} - \eta \frac{\hat{m}^{(t)}}{\sqrt{\hat{v}^{(t)}} + \epsilon}θ(t+1)=θ(t)−ηv^(t) +ϵm^(t) | Adam Optimizer Update | 结合动量和自适应学习率,mmm为一阶矩,vvv为二阶矩 | 深度学习模型(CNN、Transformer)的优化 |
二、深度学习领域核心公式
聚焦神经网络结构(CNN、RNN、Transformer)、激活函数、反向传播、生成模型等核心公式。
1. 神经网络基础公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 全连接层预激活 | zl=Wlal−1+blz^l = W^l a^{l-1} + b^lzl=Wlal−1+bl | Fully Connected Layer Pre-activation | 第lll层线性变换结果,al−1a^{l-1}al−1为前一层激活值 | 全连接神经网络、深度学习模型隐藏层 |
| 全连接层激活值 | al=f(zl)a^l = f(z^l)al=f(zl) | Fully Connected Layer Activation | 第lll层输出,fff为激活函数 | 神经网络各层输出计算 |
| Sigmoid激活函数 | σ(z)=11+e−z\sigma(z) = \frac{1}{1 + e^{-z}}σ(z)=1+e−z1 | Sigmoid Activation Function | 输出映射到(0,1),引入非线性 | 二分类输出层、LSTM门控机制 |
| ReLU激活函数 | ReLU(z)=max(0,z)\text{ReLU}(z) = \max(0, z)ReLU(z)=max(0,z) | Rectified Linear Unit | 负半轴输出0,正半轴线性输出,缓解梯度消失 | 神经网络隐藏层(CNN、RNN) |
| Softmax激活函数 | Softmax(ziL)=eziL∑j=1CezjL\text{Softmax}(z_i^L) = \frac{e^{z_i^L}}{\sum_{j=1}^C e^{z_j^L}}Softmax(ziL)=∑j=1CezjLeziL | Softmax Activation Function | 多分类输出层,将输出映射为概率分布 | 图像分类、多标签分类任务输出层 |
| 均方误差损失(单样本) | L=12∣y^−y∣2L = \frac{1}{2} |\hat{y} - y|^2L=21∣y^−y∣2 | MSE Loss (Single Sample) | 单样本回归任务损失,衡量预测值与真实值差异 | 深度学习回归任务(如超分辨率)损失函数 |
| 交叉熵损失(单样本) | L=−∑c=1Cyclogy^cL = -\sum_{c=1}^C y_c \log \hat{y}_cL=−∑c=1Cyclogy^c | Cross-Entropy Loss (Single Sample) | 单样本分类任务损失,衡量概率分布差异 | 深度学习分类任务损失函数 |
2. 反向传播核心公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 输出层误差(Softmax+CE) | δL=y^−y\delta^L = \hat{y} - yδL=y^−y | Output Layer Error | 输出层误差,由预测值与真实值直接计算 | 分类任务神经网络反向传播的起点 |
| 隐藏层误差 | δl=(Wl+1)Tδl+1⊙f′(zl)\delta^l = (W^{l+1})^T \delta^{l+1} \odot f'(z^l)δl=(Wl+1)Tδl+1⊙f′(zl) | Hidden Layer Error | 第lll层误差,由后一层误差反向传播得到,⊙\odot⊙为逐元素乘积 | 神经网络隐藏层参数梯度计算 |
| 权重梯度 | ∂L∂Wl=δl(al−1)T\frac{\partial L}{\partial W^l} = \delta^l (a^{l-1})^T∂Wl∂L=δl(al−1)T | Weight Gradient | 第lll层权重的梯度,用于参数更新 | 神经网络权重优化 |
| 偏置梯度 | ∂L∂bl=δl\frac{\partial L}{\partial b^l} = \delta^l∂bl∂L=δl | Bias Gradient | 第lll层偏置的梯度,用于参数更新 | 神经网络偏置优化 |
3. CNN核心公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 2D卷积运算 | y[i,j]=(x∗k)[i,j]=∑m=0kh−1∑n=0kw−1x[i+m,j+n]⋅k[m,n]y[i,j] = (x * k)[i,j] = \sum_{m=0}^{k_h-1} \sum_{n=0}^{k_w-1} x[i+m,j+n] \cdot k[m,n]y[i,j]=(x∗k)[i,j]=∑m=0kh−1∑n=0kw−1x[i+m,j+n]⋅k[m,n] | 2D Convolution Operation | 输入特征图xxx与卷积核kkk的2D卷积,逐元素相乘求和 | CNN卷积层特征提取 |
| 卷积输出尺寸(Same Padding) | Hout=Hin,Wout=WinH_{out} = H_{in}, W_{out} = W_{in}Hout=Hin,Wout=Win | Convolution Output Size (Same Padding) | 填充后输出特征图尺寸与输入一致,p=⌊ks/2⌋p = \lfloor k_s/2 \rfloorp=⌊ks/2⌋ | CNN卷积层尺寸保持 |
| 卷积输出尺寸(Valid Padding) | Hout=Hin−ks+1,Wout=Win−ks+1H_{out} = H_{in} - k_s + 1, W_{out} = W_{in} - k_s + 1Hout=Hin−ks+1,Wout=Win−ks+1 | Convolution Output Size (Valid Padding) | 无填充时输出尺寸,ksk_sks为卷积核尺寸 | CNN卷积层尺寸压缩 |
| 最大池化运算 | y[i,j]=maxm,n∈poolx[i⋅s+m,j⋅s+n]y[i,j] = \max_{m,n \in \text{pool}} x[i \cdot s + m, j \cdot s + n]y[i,j]=maxm,n∈poolx[i⋅s+m,j⋅s+n] | Max Pooling Operation | 池化窗口内取最大值,降低特征维度 | CNN池化层,减少参数与计算量 |
4. RNN与LSTM公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 简单RNN隐藏状态更新 | ht=tanh(Wxhxt+Whhht−1+bh)h^t = \tanh(W_{xh} x^t + W_{hh} h^{t-1} + b_h)ht=tanh(Wxhxt+Whhht−1+bh) yt=Whyht+byy^t = W_{hy} h^t + b_yyt=Whyht+by | Simple RNN Update | 时刻ttt隐藏状态hth^tht由当前输入xtx^txt和前一状态ht−1h^{t-1}ht−1计算 | 时序数据处理(如文本分类、语音识别) |
| LSTM输入门 | it=σ(Wxixt+Whiht−1+bi)i^t = \sigma(W_{xi} x^t + W_{hi} h^{t-1} + b_i)it=σ(Wxixt+Whiht−1+bi) | LSTM Input Gate | 控制新信息进入细胞状态的门控,输出(0,1)区间 | LSTM网络,缓解梯度消失 |
| LSTM遗忘门 | ft=σ(Wxfxt+Whfht−1+bf)f^t = \sigma(W_{xf} x^t + W_{hf} h^{t-1} + b_f)ft=σ(Wxfxt+Whfht−1+bf) | LSTM Forget Gate | 控制历史细胞状态丢弃的门控,输出(0,1)区间 | LSTM网络,长期记忆保留 |
| LSTM输出门 | ot=σ(Wxoxt+Whoht−1+bo)o^t = \sigma(W_{xo} x^t + W_{ho} h^{t-1} + b_o)ot=σ(Wxoxt+Whoht−1+bo) | LSTM Output Gate | 控制细胞状态输出到隐藏状态的门控 | LSTM网络,隐藏状态更新 |
| LSTM细胞状态更新 | c~t=tanh(Wxcxt+Whcht−1+bc)\tilde{c}^t = \tanh(W_{xc} x^t + W_{hc} h^{t-1} + b_c)c~t=tanh(Wxcxt+Whcht−1+bc) ct=ft⊙ct−1+it⊙c~tc^t = f^t \odot c^{t-1} + i^t \odot \tilde{c}^tct=ft⊙ct−1+it⊙c~t | LSTM Cell State Update | 候选细胞状态c~t\tilde{c}^tc~t与历史状态结合,更新长期记忆 | LSTM网络核心,存储长期时序信息 |
| LSTM隐藏状态输出 | ht=ot⊙tanh(ct)h^t = o^t \odot \tanh(c^t)ht=ot⊙tanh(ct) | LSTM Hidden State Output | 隐藏状态由输出门和细胞状态共同决定 | LSTM网络输出,用于后续预测 |
5. Transformer核心公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 缩放点积注意力 | Attn(Q,K,V)=softmax(QKTdk)V\text{Attn}(Q,K,V) = \text{softmax}\left( \frac{Q K^T}{\sqrt{d_k}} \right) VAttn(Q,K,V)=softmax(dk QKT)V | Scaled Dot-Product Attention | 计算查询QQQ与键KKK的相似度,加权求和值VVV,dk\sqrt{d_k}dk 为缩放因子 | Transformer注意力机制核心 |
| 多头注意力 | MHAttn(Q,K,V)=Concat(head1,...,headh)WO\text{MHAttn}(Q,K,V) = \text{Concat}(\text{head}_1, ..., \text{head}_h) W^OMHAttn(Q,K,V)=Concat(head1,...,headh)WO headi=Attn(QWiQ,KWiK,VWiV)\text{head}_i = \text{Attn}(Q W_i^Q, K W_i^K, V W_i^V)headi=Attn(QWiQ,KWiK,VWiV) | Multi-Head Attention | 将Q,K,VQ,K,VQ,K,V拆分hhh组并行计算注意力,再拼接投影 | Transformer编码器/解码器,捕捉多维度关联 |
| 前馈神经网络(FFN) | FFN(x)=max(0,xW1+b1)W2+b2\text{FFN}(x) = \max(0, x W_1 + b_1) W_2 + b_2FFN(x)=max(0,xW1+b1)W2+b2 | Feed-Forward Network | Transformer中两层全连接网络,引入非线性 | Transformer编码器/解码器层后特征变换 |
| 位置嵌入(正弦函数) | PE(pos,2i)=sin(pos100002i/dmodel)PE_{(pos, 2i)} = \sin\left( \frac{pos}{10000^{2i/d_{\text{model}}}} \right)PE(pos,2i)=sin(100002i/dmodelpos) PE(pos,2i+1)=cos(pos100002i/dmodel)PE_{(pos, 2i+1)} = \cos\left( \frac{pos}{10000^{2i/d_{\text{model}}}} \right)PE(pos,2i+1)=cos(100002i/dmodelpos) | Positional Embedding | 为Transformer加入时序信息,pospospos为位置索引 | Transformer输入层,弥补无循环结构的时序缺失 |
6. 生成模型公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| GAN价值函数 | V(G,D)=Ex∼pr[logD(x)]+Ez∼pz[log(1−D(G(z)))]V(G,D) = \mathbb{E}{x \sim p_r} [\log D(x)] + \mathbb{E}{z \sim p_z} [\log(1 - D(G(z)))]V(G,D)=Ex∼pr[logD(x)]+Ez∼pz[log(1−D(G(z)))] | GAN Value Function | 生成器GGG与判别器DDD的对抗目标,prp_rpr为真实分布,pzp_zpz为噪声分布 | GAN训练,最小最大化博弈 |
| GAN生成器优化目标 | minGV(G,D)=minGEz∼pz[log(1−D(G(z)))]\min_G V(G,D) = \min_G \mathbb{E}_{z \sim p_z} [\log(1 - D(G(z)))]minGV(G,D)=minGEz∼pz[log(1−D(G(z)))] | GAN Generator Objective | 生成器目标:最小化判别器对生成样本的识别概率 | GAN生成器训练,提升生成样本真实性 |
| GAN判别器优化目标 | maxDV(G,D)=maxD(Ex∼pr[logD(x)]+Ez∼pz[log(1−D(G(z)))])\max_D V(G,D) = \max_D \left( \mathbb{E}{x \sim p_r} [\log D(x)] + \mathbb{E}{z \sim p_z} [\log(1 - D(G(z)))] \right)maxDV(G,D)=maxD(Ex∼pr[logD(x)]+Ez∼pz[log(1−D(G(z)))]) | GAN Discriminator Objective | 判别器目标:最大化对真实/生成样本的区分能力 | GAN判别器训练,提升判别准确性 |
| FID(Fréchet距离) | FID=∣μr−μg∣2+Tr(Σr+Σg−2ΣrΣg)\text{FID} = |\mu_r - \mu_g|^2 + \text{Tr}(\Sigma_r + \Sigma_g - 2 \sqrt{\Sigma_r \Sigma_g})FID=∣μr−μg∣2+Tr(Σr+Σg−2ΣrΣg ) | Fréchet Inception Distance | 衡量真实样本与生成样本特征分布差异,μ\muμ为均值,Σ\SigmaΣ为协方差 | 生成模型(GAN、VAE)性能评估 |
三、信号处理领域核心公式
覆盖时域/频域分析、线性系统、滤波、调制解调、信号质量评估等核心公式。
1. 信号基础与时域分析公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 正弦信号 | x(t)=Asin(ωt+ϕ)=Asin(2πft+ϕ)x(t) = A \sin(\omega t + \phi) = A \sin(2\pi f t + \phi)x(t)=Asin(ωt+ϕ)=Asin(2πft+ϕ) | Sinusoidal Signal | 基本周期信号,AAA为幅值,ω\omegaω为角频率,ϕ\phiϕ为相位 | 信号合成、系统频率响应测试 |
| 采样定理(奈奎斯特) | fs≥2fmaxf_s \geq 2 f_{\text{max}}fs≥2fmax | Nyquist Sampling Theorem | 采样频率需至少为信号最高频率的2倍,避免混叠 | 模拟信号数字化(如音频采样、图像采集) |
| 离散信号表示 | x[n]=xa(nTs)x[n] = x_a(n T_s)x[n]=xa(nTs) | Discrete-Time Signal Representation | 离散信号由连续信号xa(t)x_a(t)xa(t)按采样周期TsT_sTs采样得到 | 数字信号处理(如滤波、傅里叶变换) |
| 自相关函数(连续) | rxx(τ)=∫−∞∞x(t)x(t+τ)dtr_{xx}(\tau) = \int_{-\infty}^{\infty} x(t) x(t + \tau) dtrxx(τ)=∫−∞∞x(t)x(t+τ)dt | Continuous Autocorrelation Function | 信号与自身时延版本的相关性,反映周期性 | 信号周期性分析、噪声功率估计 |
| 自相关函数(离散) | rxx[k]=∑n=−∞∞x[n]x[n+k]r_{xx}[k] = \sum_{n=-\infty}^{\infty} x[n] x[n + k]rxx[k]=∑n=−∞∞x[n]x[n+k] | Discrete Autocorrelation Function | 离散信号的自相关,衡量不同时延的相似性 | 离散信号周期性分析、谱估计 |
| 互相关函数(连续) | rxy(τ)=∫−∞∞x(t)y(t+τ)dtr_{xy}(\tau) = \int_{-\infty}^{\infty} x(t) y(t + \tau) dtrxy(τ)=∫−∞∞x(t)y(t+τ)dt | Continuous Cross-Correlation Function | 两个信号的相关性,用于信号匹配 | 信号检测、时延估计(如雷达测距) |
2. 频域分析核心公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 连续时间傅里叶变换(CTFT) | X(f)=∫−∞∞x(t)e−j2πftdtX(f) = \int_{-\infty}^{\infty} x(t) e^{-j2\pi f t} dtX(f)=∫−∞∞x(t)e−j2πftdt | Continuous-Time Fourier Transform | 将连续时域信号转换到频域,描述频率成分 | 连续信号频域分析(如模拟滤波) |
| 连续时间傅里叶逆变换 | x(t)=∫−∞∞X(f)ej2πftdfx(t) = \int_{-\infty}^{\infty} X(f) e^{j2\pi f t} dfx(t)=∫−∞∞X(f)ej2πftdf | Inverse CTFT | 将频域信号转换回时域,重构原始信号 | 频域处理后信号恢复 |
| 离散傅里叶变换(DFT) | X[k]=∑n=0N−1x[n]e−j2πNkn,k=0,...,N−1X[k] = \sum_{n=0}^{N-1} x[n] e^{-j \frac{2\pi}{N} k n}, \quad k=0,...,N-1X[k]=∑n=0N−1x[n]e−jN2πkn,k=0,...,N−1 | Discrete Fourier Transform | 有限长离散信号的频域表示,NNN为变换长度 | 数字信号频域分析(如音频频谱、雷达信号) |
| 离散傅里叶逆变换(IDFT) | x[n]=1N∑k=0N−1X[k]ej2πNkn,n=0,...,N−1x[n] = \frac{1}{N} \sum_{k=0}^{N-1} X[k] e^{j \frac{2\pi}{N} k n}, \quad n=0,...,N-1x[n]=N1∑k=0N−1X[k]ejN2πkn,n=0,...,N−1 | Inverse DFT | 将DFT频域信号转换回时域,重构离散信号 | 频域滤波后信号恢复、FFT应用 |
| 功率谱密度(PSD) | Px(f)=limT→∞1T∣XT(f)∣2P_x(f) = \lim_{T \to \infty} \frac{1}{T} |X_T(f)|^2Px(f)=limT→∞T1∣XT(f)∣2 | Power Spectral Density | 信号功率随频率的分布,单位W/Hz | 信号频率成分分析、噪声功率估计 |
| 帕塞瓦尔定理(连续) | ∫−∞∞∣x(t)∣2dt=∫−∞∞∣X(f)∣2df\int_{-\infty}^{\infty} |x(t)|^2 dt = \int_{-\infty}^{\infty} |X(f)|^2 df∫−∞∞∣x(t)∣2dt=∫−∞∞∣X(f)∣2df | Parseval's Theorem (Continuous) | 时域能量等于频域能量,能量守恒 | 信号能量计算、频域能量分析 |
| 帕塞瓦尔定理(离散) | ∑n=−∞∞∣x[n]∣2=12π∫−ππ∣X(ejΩ)∣2dΩ\sum_{n=-\infty}^{\infty} |x[n]|^2 = \frac{1}{2\pi} \int_{-\pi}^{\pi} |X(e^{j\Omega})|^2 d\Omega∑n=−∞∞∣x[n]∣2=2π1∫−ππ∣X(ejΩ)∣2dΩ | Parseval's Theorem (Discrete) | 离散信号时域能量等于频域能量积分 | 离散信号能量计算、谱分析 |
3. 线性系统与滤波公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 卷积定理(时域) | y(t)=x(t)∗h(t)y(t) = x(t) * h(t)y(t)=x(t)∗h(t) | Convolution Theorem (Time Domain) | LTI系统输出为输入与冲激响应的卷积 | LTI系统时域分析、信号滤波 |
| 卷积定理(频域) | Y(f)=X(f)⋅H(f)Y(f) = X(f) \cdot H(f)Y(f)=X(f)⋅H(f) | Convolution Theorem (Frequency Domain) | 时域卷积对应频域乘积,H(f)H(f)H(f)为系统频率响应 | LTI系统频域分析、快速卷积计算 |
| 低通滤波器频率响应 | HL(f)={1,∣f∣≤fc0,∣f∣>fcH_L(f) = \begin{cases} 1, & |f| \leq f_c \\ 0, & |f| > f_c \end{cases}HL(f)={1,0,∣f∣≤fc∣f∣>fc | Low-Pass Filter Frequency Response | 理想低通滤波器,允许低于截止频率fcf_cfc的信号通过 | 信号低通滤波、抗混叠滤波设计 |
| 数字滤波器差分方程 | y[n]=∑k=0Mbkx[n−k]−∑k=1Naky[n−k]y[n] = \sum_{k=0}^M b_k x[n-k] - \sum_{k=1}^N a_k y[n-k]y[n]=∑k=0Mbkx[n−k]−∑k=1Naky[n−k] | Digital Filter Difference Equation | IIR滤波器输入输出关系,ak,bka_k,b_kak,bk为滤波器系数 | 数字滤波器实现(如音频降噪、信号去干扰) |
| 窗函数(汉宁窗) | w[n]=0.5−0.5cos(2πnN−1),n=0,...,N−1w[n] = 0.5 - 0.5 \cos\left( \frac{2\pi n}{N-1} \right), \quad n=0,...,N-1w[n]=0.5−0.5cos(N−12πn),n=0,...,N−1 | Hanning Window Function | 余弦窗函数,降低频谱泄漏 | 信号截断、FFT谱分析、滤波器设计 |
4. 信号质量与调制公式
| 公式名称 | 公式 | 英文全称 | 中文解释 | 应用场景 |
|---|---|---|---|---|
| 信噪比(SNR) | SNR=10log10(PsPn)(dB)SNR = 10 \log_{10} \left( \frac{P_s}{P_n} \right) \quad (\text{dB})SNR=10log10(PnPs)(dB) | Signal-to-Noise Ratio | 信号功率与噪声功率的比值,衡量信号质量 | 信号质量评估、通信系统性能分析 |
| 峰值信噪比(PSNR) | PSNR=10log10(Amax2MSE)(dB)PSNR = 10 \log_{10} \left( \frac{A_{\text{max}}^2}{MSE} \right) \quad (\text{dB})PSNR=10log10(MSEAmax2)(dB) | Peak Signal-to-Noise Ratio | 基于信号峰值的信噪比,AmaxA_{\text{max}}Amax为信号峰值 | 图像/音频压缩失真评估、降噪效果衡量 |
| 调幅(AM)信号 | xAM(t)=(A0+s(t))cos(ωct)x_{\text{AM}}(t) = (A_0 + s(t)) \cos(\omega_c t)xAM(t)=(A0+s(t))cos(ωct) | Amplitude Modulation Signal | 载波幅值随调制信号s(t)s(t)s(t)变化的已调信号 | 模拟通信(如调幅广播)、信号传输 |
| 调频(FM)信号 | xFM(t)=Accos(ωct+kf∫−∞ts(τ)dτ)x_{\text{FM}}(t) = A_c \cos\left( \omega_c t + k_f \int_{-\infty}^t s(\tau) d\tau \right)xFM(t)=Accos(ωct+kf∫−∞ts(τ)dτ) | Frequency Modulation Signal | 载波频率随调制信号积分变化的已调信号 | 调频广播、抗干扰通信系统 |
| 动态时间规整(DTW)距离 | DTW(i,j)=d(xi,yj)+min{DTW(i−1,j),DTW(i,j−1),DTW(i−1,j−1)}DTW(i,j) = d(x_i,y_j) + \min\{DTW(i-1,j), DTW(i,j-1), DTW(i-1,j-1)\}DTW(i,j)=d(xi,yj)+min{DTW(i−1,j),DTW(i,j−1),DTW(i−1,j−1)} | DTW Distance | 递归计算两个时序信号的最小累积距离,ddd为帧距离 | 时序信号匹配(如语音识别、步态分析) |
| 信号检测检验统计量(能量) | T(x)=∫T0T1∣x(t)∣2dtT(x) = \int_{T_0}^{T_1} |x(t)|^2 dtT(x)=∫T0T1∣x(t)∣2dt | Energy Test Statistic | 基于信号能量的检测统计量,用于判决信号是否存在 | 雷达信号检测、噪声中弱信号提取 |