机器学习、深度学习、信号处理领域常用公式速查表

机器学习、深度学习、信号处理领域常用公式速查表

一、机器学习领域核心公式

覆盖分类、回归、聚类、概率模型、优化算法等主流任务,聚焦模型原理与评估核心公式。

1. 数据与特征相关公式

公式名称 公式 英文全称 中文解释 应用场景
特征矩阵维度表示 X∈Rn×dX \in \mathbb{R}^{n \times d}X∈Rn×d Feature Matrix Dimension 特征矩阵XXX为nnn行ddd列,nnn为样本数,ddd为特征维度 所有机器学习任务中数据的矩阵表示
样本均值 xˉ=1n∑i=1nxi\bar{x} = \frac{1}{n} \sum_{i=1}^n x_ixˉ=n1∑i=1nxi Sample Mean 单个特征的样本均值,反映数据中心趋势 数据预处理(归一化、标准化)
样本方差 σ2=1n−1∑i=1n(xi−xˉ)2\sigma^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2σ2=n−11∑i=1n(xi−xˉ)2 Sample Variance 单个特征的样本方差,反映数据离散程度 数据分布分析、特征重要性评估
标准化(Z-Score) xstd=x−xˉσx_{std} = \frac{x - \bar{x}}{\sigma}xstd=σx−xˉ Standardization 将特征缩放到均值为0、方差为1的分布 线性模型(LR、SVM)、神经网络输入预处理
归一化(Min-Max) xnorm=x−xminxmax−xminx_{norm} = \frac{x - x_{min}}{x_{max} - x_{min}}xnorm=xmax−xminx−xmin Min-Max Normalization 将特征缩放到[0,1]区间 对输入范围敏感的模型(如神经网络、K-Means)
特征映射(核函数示例) K(xi,xj)=exp⁡(−∣xi−xj∣22σ2)K(x_i, x_j) = \exp\left(-\frac{|x_i - x_j|^2}{2\sigma^2}\right)K(xi,xj)=exp(−2σ2∣xi−xj∣2) Gaussian Kernel Function 高斯核函数,将原始特征映射到高维空间 SVM、核方法中的非线性特征转换

2. 分类任务核心公式

公式名称 公式 英文全称 中文解释 应用场景
逻辑回归预测函数 y^=σ(wTx+b)=11+e−(wTx+b)\hat{y} = \sigma(w^T x + b) = \frac{1}{1 + e^{-(w^T x + b)}}y^=σ(wTx+b)=1+e−(wTx+b)1 Logistic Regression Predict Function 二分类预测函数,Sigmoid函数将线性输出映射到(0,1) 二分类任务(如垃圾邮件检测、疾病诊断)
交叉熵损失(二分类) L=−1n∑i=1n[yilog⁡y^i+(1−yi)log⁡(1−y^i)]L = -\frac{1}{n} \sum_{i=1}^n [y_i \log \hat{y}_i + (1 - y_i) \log (1 - \hat{y}_i)]L=−n1∑i=1n[yilogy^i+(1−yi)log(1−y^i)] Binary Cross-Entropy Loss 衡量二分类预测概率与真实标签的差异 逻辑回归、二分类神经网络的损失函数
交叉熵损失(多分类) L=−1n∑i=1n∑c=1Cyiclog⁡y^icL = -\frac{1}{n} \sum_{i=1}^n \sum_{c=1}^C y_{ic} \log \hat{y}_{ic}L=−n1∑i=1n∑c=1Cyiclogy^ic Categorical Cross-Entropy Loss 衡量多分类预测概率分布与真实分布的差异 多分类任务(如图像分类)的损失函数
准确率 Accuracy=TP+TNTP+TN+FP+FNAccuracy = \frac{TP + TN}{TP + TN + FP + FN}Accuracy=TP+TN+FP+FNTP+TN Accuracy Score 所有预测正确样本占总样本的比例 类别分布均衡的分类任务评估
精确率 Precision=TPTP+FPPrecision = \frac{TP}{TP + FP}Precision=TP+FPTP Precision Score 预测为正类中实际正类的比例 需降低"误判正类"场景(如欺诈检测)
召回率 Recall=TPTP+FNRecall = \frac{TP}{TP + FN}Recall=TP+FNTP Recall Score 实际正类中被预测正类的比例 需降低"漏判正类"场景(如癌症筛查)
F1-Score F1=2×Precision×RecallPrecision+RecallF1 = 2 \times \frac{Precision \times Recall}{Precision + Recall}F1=2×Precision+RecallPrecision×Recall F1-Score 精确率与召回率的调和平均,平衡两者 类别不平衡的分类任务评估
ROC曲线横轴(FPR) FPR=FPTN+FPFPR = \frac{FP}{TN + FP}FPR=TN+FPFP False Positive Rate 假正率,实际负类中被预测正类的比例 ROC曲线绘制、模型泛化能力评估
ROC曲线纵轴(TPR) TPR=Recall=TPTP+FNTPR = Recall = \frac{TP}{TP + FN}TPR=Recall=TP+FNTP True Positive Rate 真正率,即召回率,实际正类中被预测正类的比例 ROC曲线绘制、AUC计算

3. 回归任务核心公式

公式名称 公式 英文全称 中文解释 应用场景
线性回归预测函数 y^=wTx+b\hat{y} = w^T x + by^=wTx+b Linear Regression Predict Function 线性模型预测函数,输出连续值 简单线性回归(如房价预测、销量预测)
均方误差(MSE) MSE=1n∑i=1n(yi−y^i)2MSE = \frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)^2MSE=n1∑i=1n(yi−y^i)2 Mean Squared Error 预测值与真实值的平方误差均值 回归任务损失函数、模型评估
均方根误差(RMSE) RMSE=1n∑i=1n(yi−y^i)2RMSE = \sqrt{\frac{1}{n} \sum_{i=1}^n (y_i - \hat{y}_i)^2}RMSE=n1∑i=1n(yi−y^i)2 Root Mean Squared Error MSE的平方根,与原始数据单位一致 回归任务评估,直观反映实际偏差大小
平均绝对误差(MAE) MAE=1n∑i=1n∣yi−y^i∣MAE = \frac{1}{n} \sum_{i=1}^n |y_i - \hat{y}_i|MAE=n1∑i=1n∣yi−y^i∣ Mean Absolute Error 预测值与真实值的绝对误差均值 对异常值鲁棒的回归任务评估
决定系数(R²) R2=1−∑i=1n(yi−y^i)2∑i=1n(yi−yˉ)2R^2 = 1 - \frac{\sum_{i=1}^n (y_i - \hat{y}i)^2}{\sum{i=1}^n (y_i - \bar{y})^2}R2=1−∑i=1n(yi−yˉ)2∑i=1n(yi−y^i)2 Coefficient of Determination 模型可解释方差占总方差的比例,衡量拟合效果 回归任务模型解释力评估,取值[0,1]
L1正则化项 RL1(θ)=∣∣θ∣∣1=∑i=1d∣wi∣R_{L1}(\theta) = || \theta ||1 = \sum{i=1}^d |w_i|RL1(θ)=∣∣θ∣∣1=∑i=1d∣wi∣ L1 Regularization Term L1正则化(Lasso),使部分权重为0,实现特征选择 线性回归、逻辑回归的正则化,防止过拟合
L2正则化项 RL2(θ)=∣∣θ∣∣22=∑i=1dwi2R_{L2}(\theta) = || \theta ||2^2 = \sum{i=1}^d w_i^2RL2(θ)=∣∣θ∣∣22=∑i=1dwi2 L2 Regularization Term L2正则化(Ridge),使权重趋于较小值 线性模型、神经网络的正则化,防止过拟合

4. 聚类与概率模型公式

公式名称 公式 英文全称 中文解释 应用场景
K-Means目标函数 J=∑k=1K∑xi∈Ck∣xi−μk∣2J = \sum_{k=1}^K \sum_{x_i \in C_k} |x_i - \mu_k|^2J=∑k=1K∑xi∈Ck∣xi−μk∣2 K-Means Objective Function 所有样本到其所属聚类中心的欧氏距离平方和 K-Means聚类算法的优化目标
高斯分布概率密度 p(x∣μ,σ2)=12πσexp⁡(−(x−μ)22σ2)p(x \mid \mu, \sigma^2) = \frac{1}{\sqrt{2\pi}\sigma} \exp\left(-\frac{(x - \mu)^2}{2\sigma^2}\right)p(x∣μ,σ2)=2π σ1exp(−2σ2(x−μ)2) Gaussian Probability Density Function 单变量正态分布的概率密度,描述连续数据分布 高斯混合模型、异常检测、概率统计分析
贝叶斯定理 p(θ∣D)=p(D∣θ)p(θ)p(D)p(\theta \mid D) = \frac{p(D \mid \theta) p(\theta)}{p(D)}p(θ∣D)=p(D)p(D∣θ)p(θ) Bayes' Theorem 后验分布 = 似然×先验 / 证据,实现参数推断 贝叶斯模型(如贝叶斯回归、LDA)、概率推断
似然函数(高斯模型) p(D∣μ,σ2)=∏i=1n12πσexp⁡(−(xi−μ)22σ2)p(D \mid \mu, \sigma^2) = \prod_{i=1}^n \frac{1}{\sqrt{2\pi}\sigma} \exp\left(-\frac{(x_i - \mu)^2}{2\sigma^2}\right)p(D∣μ,σ2)=∏i=1n2π σ1exp(−2σ2(xi−μ)2) Likelihood Function 给定参数下观测到数据的概率,衡量参数拟合度 最大似然估计、模型参数优化
熵(信息熵) H(X)=−∑x∈Xp(x)log⁡2p(x)H(X) = -\sum_{x \in X} p(x) \log_2 p(x)H(X)=−∑x∈Xp(x)log2p(x) Information Entropy 随机变量X的不确定性度量,熵越大不确定性越高 决策树分裂准则、特征重要性评估、信息论
互信息 I(X;Y)=H(X)−H(X∣Y)=∑x,yp(x,y)log⁡2p(x,y)p(x)p(y)I(X;Y) = H(X) - H(X \mid Y) = \sum_{x,y} p(x,y) \log_2 \frac{p(x,y)}{p(x)p(y)}I(X;Y)=H(X)−H(X∣Y)=∑x,yp(x,y)log2p(x)p(y)p(x,y) Mutual Information 衡量两个随机变量的相关性,值越大关联越强 特征选择、聚类结果评估(NMI计算)

5. 优化算法公式

公式名称 公式 英文全称 中文解释 应用场景
梯度下降参数更新 θ(t+1)=θ(t)−η∇θJ(θ(t))\theta^{(t+1)} = \theta^{(t)} - \eta \nabla_\theta J(\theta^{(t)})θ(t+1)=θ(t)−η∇θJ(θ(t)) Gradient Descent Update 沿代价函数梯度负方向更新参数,η\etaη为学习率 所有机器学习模型的参数优化
动量梯度下降更新 v(t+1)=γv(t)+η∇θJ(θ(t))v^{(t+1)} = \gamma v^{(t)} + \eta \nabla_\theta J(\theta^{(t)})v(t+1)=γv(t)+η∇θJ(θ(t)) θ(t+1)=θ(t)−v(t+1)\theta^{(t+1)} = \theta^{(t)} - v^{(t+1)}θ(t+1)=θ(t)−v(t+1) Momentum Gradient Descent 引入动量项vvv,加速收敛,抑制震荡 神经网络、深度学习模型的优化
Adam优化器更新 m(t)=β1m(t−1)+(1−β1)∇θJm^{(t)} = \beta_1 m^{(t-1)} + (1-\beta_1) \nabla_\theta Jm(t)=β1m(t−1)+(1−β1)∇θJ v(t)=β2v(t−1)+(1−β2)(∇θJ)2v^{(t)} = \beta_2 v^{(t-1)} + (1-\beta_2) (\nabla_\theta J)^2v(t)=β2v(t−1)+(1−β2)(∇θJ)2 m^(t)=m(t)1−β1t,v^(t)=v(t)1−β2t\hat{m}^{(t)} = \frac{m^{(t)}}{1-\beta_1^t}, \hat{v}^{(t)} = \frac{v^{(t)}}{1-\beta_2^t}m^(t)=1−β1tm(t),v^(t)=1−β2tv(t) θ(t+1)=θ(t)−ηm^(t)v^(t)+ϵ\theta^{(t+1)} = \theta^{(t)} - \eta \frac{\hat{m}^{(t)}}{\sqrt{\hat{v}^{(t)}} + \epsilon}θ(t+1)=θ(t)−ηv^(t) +ϵm^(t) Adam Optimizer Update 结合动量和自适应学习率,mmm为一阶矩,vvv为二阶矩 深度学习模型(CNN、Transformer)的优化

二、深度学习领域核心公式

聚焦神经网络结构(CNN、RNN、Transformer)、激活函数、反向传播、生成模型等核心公式。

1. 神经网络基础公式

公式名称 公式 英文全称 中文解释 应用场景
全连接层预激活 zl=Wlal−1+blz^l = W^l a^{l-1} + b^lzl=Wlal−1+bl Fully Connected Layer Pre-activation 第lll层线性变换结果,al−1a^{l-1}al−1为前一层激活值 全连接神经网络、深度学习模型隐藏层
全连接层激活值 al=f(zl)a^l = f(z^l)al=f(zl) Fully Connected Layer Activation 第lll层输出,fff为激活函数 神经网络各层输出计算
Sigmoid激活函数 σ(z)=11+e−z\sigma(z) = \frac{1}{1 + e^{-z}}σ(z)=1+e−z1 Sigmoid Activation Function 输出映射到(0,1),引入非线性 二分类输出层、LSTM门控机制
ReLU激活函数 ReLU(z)=max⁡(0,z)\text{ReLU}(z) = \max(0, z)ReLU(z)=max(0,z) Rectified Linear Unit 负半轴输出0,正半轴线性输出,缓解梯度消失 神经网络隐藏层(CNN、RNN)
Softmax激活函数 Softmax(ziL)=eziL∑j=1CezjL\text{Softmax}(z_i^L) = \frac{e^{z_i^L}}{\sum_{j=1}^C e^{z_j^L}}Softmax(ziL)=∑j=1CezjLeziL Softmax Activation Function 多分类输出层,将输出映射为概率分布 图像分类、多标签分类任务输出层
均方误差损失(单样本) L=12∣y^−y∣2L = \frac{1}{2} |\hat{y} - y|^2L=21∣y^−y∣2 MSE Loss (Single Sample) 单样本回归任务损失,衡量预测值与真实值差异 深度学习回归任务(如超分辨率)损失函数
交叉熵损失(单样本) L=−∑c=1Cyclog⁡y^cL = -\sum_{c=1}^C y_c \log \hat{y}_cL=−∑c=1Cyclogy^c Cross-Entropy Loss (Single Sample) 单样本分类任务损失,衡量概率分布差异 深度学习分类任务损失函数

2. 反向传播核心公式

公式名称 公式 英文全称 中文解释 应用场景
输出层误差(Softmax+CE) δL=y^−y\delta^L = \hat{y} - yδL=y^−y Output Layer Error 输出层误差,由预测值与真实值直接计算 分类任务神经网络反向传播的起点
隐藏层误差 δl=(Wl+1)Tδl+1⊙f′(zl)\delta^l = (W^{l+1})^T \delta^{l+1} \odot f'(z^l)δl=(Wl+1)Tδl+1⊙f′(zl) Hidden Layer Error 第lll层误差,由后一层误差反向传播得到,⊙\odot⊙为逐元素乘积 神经网络隐藏层参数梯度计算
权重梯度 ∂L∂Wl=δl(al−1)T\frac{\partial L}{\partial W^l} = \delta^l (a^{l-1})^T∂Wl∂L=δl(al−1)T Weight Gradient 第lll层权重的梯度,用于参数更新 神经网络权重优化
偏置梯度 ∂L∂bl=δl\frac{\partial L}{\partial b^l} = \delta^l∂bl∂L=δl Bias Gradient 第lll层偏置的梯度,用于参数更新 神经网络偏置优化

3. CNN核心公式

公式名称 公式 英文全称 中文解释 应用场景
2D卷积运算 y[i,j]=(x∗k)[i,j]=∑m=0kh−1∑n=0kw−1x[i+m,j+n]⋅k[m,n]y[i,j] = (x * k)[i,j] = \sum_{m=0}^{k_h-1} \sum_{n=0}^{k_w-1} x[i+m,j+n] \cdot k[m,n]y[i,j]=(x∗k)[i,j]=∑m=0kh−1∑n=0kw−1x[i+m,j+n]⋅k[m,n] 2D Convolution Operation 输入特征图xxx与卷积核kkk的2D卷积,逐元素相乘求和 CNN卷积层特征提取
卷积输出尺寸(Same Padding) Hout=Hin,Wout=WinH_{out} = H_{in}, W_{out} = W_{in}Hout=Hin,Wout=Win Convolution Output Size (Same Padding) 填充后输出特征图尺寸与输入一致,p=⌊ks/2⌋p = \lfloor k_s/2 \rfloorp=⌊ks/2⌋ CNN卷积层尺寸保持
卷积输出尺寸(Valid Padding) Hout=Hin−ks+1,Wout=Win−ks+1H_{out} = H_{in} - k_s + 1, W_{out} = W_{in} - k_s + 1Hout=Hin−ks+1,Wout=Win−ks+1 Convolution Output Size (Valid Padding) 无填充时输出尺寸,ksk_sks为卷积核尺寸 CNN卷积层尺寸压缩
最大池化运算 y[i,j]=max⁡m,n∈poolx[i⋅s+m,j⋅s+n]y[i,j] = \max_{m,n \in \text{pool}} x[i \cdot s + m, j \cdot s + n]y[i,j]=maxm,n∈poolx[i⋅s+m,j⋅s+n] Max Pooling Operation 池化窗口内取最大值,降低特征维度 CNN池化层,减少参数与计算量

4. RNN与LSTM公式

公式名称 公式 英文全称 中文解释 应用场景
简单RNN隐藏状态更新 ht=tanh⁡(Wxhxt+Whhht−1+bh)h^t = \tanh(W_{xh} x^t + W_{hh} h^{t-1} + b_h)ht=tanh(Wxhxt+Whhht−1+bh) yt=Whyht+byy^t = W_{hy} h^t + b_yyt=Whyht+by Simple RNN Update 时刻ttt隐藏状态hth^tht由当前输入xtx^txt和前一状态ht−1h^{t-1}ht−1计算 时序数据处理(如文本分类、语音识别)
LSTM输入门 it=σ(Wxixt+Whiht−1+bi)i^t = \sigma(W_{xi} x^t + W_{hi} h^{t-1} + b_i)it=σ(Wxixt+Whiht−1+bi) LSTM Input Gate 控制新信息进入细胞状态的门控,输出(0,1)区间 LSTM网络,缓解梯度消失
LSTM遗忘门 ft=σ(Wxfxt+Whfht−1+bf)f^t = \sigma(W_{xf} x^t + W_{hf} h^{t-1} + b_f)ft=σ(Wxfxt+Whfht−1+bf) LSTM Forget Gate 控制历史细胞状态丢弃的门控,输出(0,1)区间 LSTM网络,长期记忆保留
LSTM输出门 ot=σ(Wxoxt+Whoht−1+bo)o^t = \sigma(W_{xo} x^t + W_{ho} h^{t-1} + b_o)ot=σ(Wxoxt+Whoht−1+bo) LSTM Output Gate 控制细胞状态输出到隐藏状态的门控 LSTM网络,隐藏状态更新
LSTM细胞状态更新 c~t=tanh⁡(Wxcxt+Whcht−1+bc)\tilde{c}^t = \tanh(W_{xc} x^t + W_{hc} h^{t-1} + b_c)c~t=tanh(Wxcxt+Whcht−1+bc) ct=ft⊙ct−1+it⊙c~tc^t = f^t \odot c^{t-1} + i^t \odot \tilde{c}^tct=ft⊙ct−1+it⊙c~t LSTM Cell State Update 候选细胞状态c~t\tilde{c}^tc~t与历史状态结合,更新长期记忆 LSTM网络核心,存储长期时序信息
LSTM隐藏状态输出 ht=ot⊙tanh⁡(ct)h^t = o^t \odot \tanh(c^t)ht=ot⊙tanh(ct) LSTM Hidden State Output 隐藏状态由输出门和细胞状态共同决定 LSTM网络输出,用于后续预测

5. Transformer核心公式

公式名称 公式 英文全称 中文解释 应用场景
缩放点积注意力 Attn(Q,K,V)=softmax(QKTdk)V\text{Attn}(Q,K,V) = \text{softmax}\left( \frac{Q K^T}{\sqrt{d_k}} \right) VAttn(Q,K,V)=softmax(dk QKT)V Scaled Dot-Product Attention 计算查询QQQ与键KKK的相似度,加权求和值VVV,dk\sqrt{d_k}dk 为缩放因子 Transformer注意力机制核心
多头注意力 MHAttn(Q,K,V)=Concat(head1,...,headh)WO\text{MHAttn}(Q,K,V) = \text{Concat}(\text{head}_1, ..., \text{head}_h) W^OMHAttn(Q,K,V)=Concat(head1,...,headh)WO headi=Attn(QWiQ,KWiK,VWiV)\text{head}_i = \text{Attn}(Q W_i^Q, K W_i^K, V W_i^V)headi=Attn(QWiQ,KWiK,VWiV) Multi-Head Attention 将Q,K,VQ,K,VQ,K,V拆分hhh组并行计算注意力,再拼接投影 Transformer编码器/解码器,捕捉多维度关联
前馈神经网络(FFN) FFN(x)=max⁡(0,xW1+b1)W2+b2\text{FFN}(x) = \max(0, x W_1 + b_1) W_2 + b_2FFN(x)=max(0,xW1+b1)W2+b2 Feed-Forward Network Transformer中两层全连接网络,引入非线性 Transformer编码器/解码器层后特征变换
位置嵌入(正弦函数) PE(pos,2i)=sin⁡(pos100002i/dmodel)PE_{(pos, 2i)} = \sin\left( \frac{pos}{10000^{2i/d_{\text{model}}}} \right)PE(pos,2i)=sin(100002i/dmodelpos) PE(pos,2i+1)=cos⁡(pos100002i/dmodel)PE_{(pos, 2i+1)} = \cos\left( \frac{pos}{10000^{2i/d_{\text{model}}}} \right)PE(pos,2i+1)=cos(100002i/dmodelpos) Positional Embedding 为Transformer加入时序信息,pospospos为位置索引 Transformer输入层,弥补无循环结构的时序缺失

6. 生成模型公式

公式名称 公式 英文全称 中文解释 应用场景
GAN价值函数 V(G,D)=Ex∼pr[log⁡D(x)]+Ez∼pz[log⁡(1−D(G(z)))]V(G,D) = \mathbb{E}{x \sim p_r} [\log D(x)] + \mathbb{E}{z \sim p_z} [\log(1 - D(G(z)))]V(G,D)=Ex∼pr[logD(x)]+Ez∼pz[log(1−D(G(z)))] GAN Value Function 生成器GGG与判别器DDD的对抗目标,prp_rpr为真实分布,pzp_zpz为噪声分布 GAN训练,最小最大化博弈
GAN生成器优化目标 min⁡GV(G,D)=min⁡GEz∼pz[log⁡(1−D(G(z)))]\min_G V(G,D) = \min_G \mathbb{E}_{z \sim p_z} [\log(1 - D(G(z)))]minGV(G,D)=minGEz∼pz[log(1−D(G(z)))] GAN Generator Objective 生成器目标:最小化判别器对生成样本的识别概率 GAN生成器训练,提升生成样本真实性
GAN判别器优化目标 max⁡DV(G,D)=max⁡D(Ex∼pr[log⁡D(x)]+Ez∼pz[log⁡(1−D(G(z)))])\max_D V(G,D) = \max_D \left( \mathbb{E}{x \sim p_r} [\log D(x)] + \mathbb{E}{z \sim p_z} [\log(1 - D(G(z)))] \right)maxDV(G,D)=maxD(Ex∼pr[logD(x)]+Ez∼pz[log(1−D(G(z)))]) GAN Discriminator Objective 判别器目标:最大化对真实/生成样本的区分能力 GAN判别器训练,提升判别准确性
FID(Fréchet距离) FID=∣μr−μg∣2+Tr(Σr+Σg−2ΣrΣg)\text{FID} = |\mu_r - \mu_g|^2 + \text{Tr}(\Sigma_r + \Sigma_g - 2 \sqrt{\Sigma_r \Sigma_g})FID=∣μr−μg∣2+Tr(Σr+Σg−2ΣrΣg ) Fréchet Inception Distance 衡量真实样本与生成样本特征分布差异,μ\muμ为均值,Σ\SigmaΣ为协方差 生成模型(GAN、VAE)性能评估

三、信号处理领域核心公式

覆盖时域/频域分析、线性系统、滤波、调制解调、信号质量评估等核心公式。

1. 信号基础与时域分析公式

公式名称 公式 英文全称 中文解释 应用场景
正弦信号 x(t)=Asin⁡(ωt+ϕ)=Asin⁡(2πft+ϕ)x(t) = A \sin(\omega t + \phi) = A \sin(2\pi f t + \phi)x(t)=Asin(ωt+ϕ)=Asin(2πft+ϕ) Sinusoidal Signal 基本周期信号,AAA为幅值,ω\omegaω为角频率,ϕ\phiϕ为相位 信号合成、系统频率响应测试
采样定理(奈奎斯特) fs≥2fmaxf_s \geq 2 f_{\text{max}}fs≥2fmax Nyquist Sampling Theorem 采样频率需至少为信号最高频率的2倍,避免混叠 模拟信号数字化(如音频采样、图像采集)
离散信号表示 x[n]=xa(nTs)x[n] = x_a(n T_s)x[n]=xa(nTs) Discrete-Time Signal Representation 离散信号由连续信号xa(t)x_a(t)xa(t)按采样周期TsT_sTs采样得到 数字信号处理(如滤波、傅里叶变换)
自相关函数(连续) rxx(τ)=∫−∞∞x(t)x(t+τ)dtr_{xx}(\tau) = \int_{-\infty}^{\infty} x(t) x(t + \tau) dtrxx(τ)=∫−∞∞x(t)x(t+τ)dt Continuous Autocorrelation Function 信号与自身时延版本的相关性,反映周期性 信号周期性分析、噪声功率估计
自相关函数(离散) rxx[k]=∑n=−∞∞x[n]x[n+k]r_{xx}[k] = \sum_{n=-\infty}^{\infty} x[n] x[n + k]rxx[k]=∑n=−∞∞x[n]x[n+k] Discrete Autocorrelation Function 离散信号的自相关,衡量不同时延的相似性 离散信号周期性分析、谱估计
互相关函数(连续) rxy(τ)=∫−∞∞x(t)y(t+τ)dtr_{xy}(\tau) = \int_{-\infty}^{\infty} x(t) y(t + \tau) dtrxy(τ)=∫−∞∞x(t)y(t+τ)dt Continuous Cross-Correlation Function 两个信号的相关性,用于信号匹配 信号检测、时延估计(如雷达测距)

2. 频域分析核心公式

公式名称 公式 英文全称 中文解释 应用场景
连续时间傅里叶变换(CTFT) X(f)=∫−∞∞x(t)e−j2πftdtX(f) = \int_{-\infty}^{\infty} x(t) e^{-j2\pi f t} dtX(f)=∫−∞∞x(t)e−j2πftdt Continuous-Time Fourier Transform 将连续时域信号转换到频域,描述频率成分 连续信号频域分析(如模拟滤波)
连续时间傅里叶逆变换 x(t)=∫−∞∞X(f)ej2πftdfx(t) = \int_{-\infty}^{\infty} X(f) e^{j2\pi f t} dfx(t)=∫−∞∞X(f)ej2πftdf Inverse CTFT 将频域信号转换回时域,重构原始信号 频域处理后信号恢复
离散傅里叶变换(DFT) X[k]=∑n=0N−1x[n]e−j2πNkn,k=0,...,N−1X[k] = \sum_{n=0}^{N-1} x[n] e^{-j \frac{2\pi}{N} k n}, \quad k=0,...,N-1X[k]=∑n=0N−1x[n]e−jN2πkn,k=0,...,N−1 Discrete Fourier Transform 有限长离散信号的频域表示,NNN为变换长度 数字信号频域分析(如音频频谱、雷达信号)
离散傅里叶逆变换(IDFT) x[n]=1N∑k=0N−1X[k]ej2πNkn,n=0,...,N−1x[n] = \frac{1}{N} \sum_{k=0}^{N-1} X[k] e^{j \frac{2\pi}{N} k n}, \quad n=0,...,N-1x[n]=N1∑k=0N−1X[k]ejN2πkn,n=0,...,N−1 Inverse DFT 将DFT频域信号转换回时域,重构离散信号 频域滤波后信号恢复、FFT应用
功率谱密度(PSD) Px(f)=lim⁡T→∞1T∣XT(f)∣2P_x(f) = \lim_{T \to \infty} \frac{1}{T} |X_T(f)|^2Px(f)=limT→∞T1∣XT(f)∣2 Power Spectral Density 信号功率随频率的分布,单位W/Hz 信号频率成分分析、噪声功率估计
帕塞瓦尔定理(连续) ∫−∞∞∣x(t)∣2dt=∫−∞∞∣X(f)∣2df\int_{-\infty}^{\infty} |x(t)|^2 dt = \int_{-\infty}^{\infty} |X(f)|^2 df∫−∞∞∣x(t)∣2dt=∫−∞∞∣X(f)∣2df Parseval's Theorem (Continuous) 时域能量等于频域能量,能量守恒 信号能量计算、频域能量分析
帕塞瓦尔定理(离散) ∑n=−∞∞∣x[n]∣2=12π∫−ππ∣X(ejΩ)∣2dΩ\sum_{n=-\infty}^{\infty} |x[n]|^2 = \frac{1}{2\pi} \int_{-\pi}^{\pi} |X(e^{j\Omega})|^2 d\Omega∑n=−∞∞∣x[n]∣2=2π1∫−ππ∣X(ejΩ)∣2dΩ Parseval's Theorem (Discrete) 离散信号时域能量等于频域能量积分 离散信号能量计算、谱分析

3. 线性系统与滤波公式

公式名称 公式 英文全称 中文解释 应用场景
卷积定理(时域) y(t)=x(t)∗h(t)y(t) = x(t) * h(t)y(t)=x(t)∗h(t) Convolution Theorem (Time Domain) LTI系统输出为输入与冲激响应的卷积 LTI系统时域分析、信号滤波
卷积定理(频域) Y(f)=X(f)⋅H(f)Y(f) = X(f) \cdot H(f)Y(f)=X(f)⋅H(f) Convolution Theorem (Frequency Domain) 时域卷积对应频域乘积,H(f)H(f)H(f)为系统频率响应 LTI系统频域分析、快速卷积计算
低通滤波器频率响应 HL(f)={1,∣f∣≤fc0,∣f∣>fcH_L(f) = \begin{cases} 1, & |f| \leq f_c \\ 0, & |f| > f_c \end{cases}HL(f)={1,0,∣f∣≤fc∣f∣>fc Low-Pass Filter Frequency Response 理想低通滤波器,允许低于截止频率fcf_cfc的信号通过 信号低通滤波、抗混叠滤波设计
数字滤波器差分方程 y[n]=∑k=0Mbkx[n−k]−∑k=1Naky[n−k]y[n] = \sum_{k=0}^M b_k x[n-k] - \sum_{k=1}^N a_k y[n-k]y[n]=∑k=0Mbkx[n−k]−∑k=1Naky[n−k] Digital Filter Difference Equation IIR滤波器输入输出关系,ak,bka_k,b_kak,bk为滤波器系数 数字滤波器实现(如音频降噪、信号去干扰)
窗函数(汉宁窗) w[n]=0.5−0.5cos⁡(2πnN−1),n=0,...,N−1w[n] = 0.5 - 0.5 \cos\left( \frac{2\pi n}{N-1} \right), \quad n=0,...,N-1w[n]=0.5−0.5cos(N−12πn),n=0,...,N−1 Hanning Window Function 余弦窗函数,降低频谱泄漏 信号截断、FFT谱分析、滤波器设计

4. 信号质量与调制公式

公式名称 公式 英文全称 中文解释 应用场景
信噪比(SNR) SNR=10log⁡10(PsPn)(dB)SNR = 10 \log_{10} \left( \frac{P_s}{P_n} \right) \quad (\text{dB})SNR=10log10(PnPs)(dB) Signal-to-Noise Ratio 信号功率与噪声功率的比值,衡量信号质量 信号质量评估、通信系统性能分析
峰值信噪比(PSNR) PSNR=10log⁡10(Amax2MSE)(dB)PSNR = 10 \log_{10} \left( \frac{A_{\text{max}}^2}{MSE} \right) \quad (\text{dB})PSNR=10log10(MSEAmax2)(dB) Peak Signal-to-Noise Ratio 基于信号峰值的信噪比,AmaxA_{\text{max}}Amax为信号峰值 图像/音频压缩失真评估、降噪效果衡量
调幅(AM)信号 xAM(t)=(A0+s(t))cos⁡(ωct)x_{\text{AM}}(t) = (A_0 + s(t)) \cos(\omega_c t)xAM(t)=(A0+s(t))cos(ωct) Amplitude Modulation Signal 载波幅值随调制信号s(t)s(t)s(t)变化的已调信号 模拟通信(如调幅广播)、信号传输
调频(FM)信号 xFM(t)=Accos⁡(ωct+kf∫−∞ts(τ)dτ)x_{\text{FM}}(t) = A_c \cos\left( \omega_c t + k_f \int_{-\infty}^t s(\tau) d\tau \right)xFM(t)=Accos(ωct+kf∫−∞ts(τ)dτ) Frequency Modulation Signal 载波频率随调制信号积分变化的已调信号 调频广播、抗干扰通信系统
动态时间规整(DTW)距离 DTW(i,j)=d(xi,yj)+min⁡{DTW(i−1,j),DTW(i,j−1),DTW(i−1,j−1)}DTW(i,j) = d(x_i,y_j) + \min\{DTW(i-1,j), DTW(i,j-1), DTW(i-1,j-1)\}DTW(i,j)=d(xi,yj)+min{DTW(i−1,j),DTW(i,j−1),DTW(i−1,j−1)} DTW Distance 递归计算两个时序信号的最小累积距离,ddd为帧距离 时序信号匹配(如语音识别、步态分析)
信号检测检验统计量(能量) T(x)=∫T0T1∣x(t)∣2dtT(x) = \int_{T_0}^{T_1} |x(t)|^2 dtT(x)=∫T0T1∣x(t)∣2dt Energy Test Statistic 基于信号能量的检测统计量,用于判决信号是否存在 雷达信号检测、噪声中弱信号提取
相关推荐
加油吧zkf4 小时前
卷积神经网络(CNN)
人工智能·深度学习·cnn
哥布林学者4 小时前
吴恩达深度学习课程二: 改善深层神经网络 第一周:深度学习的实践(二)
深度学习·ai
阿巴~阿巴~5 小时前
深入理解sigaction函数:Linux信号处理机制与使用指南
linux·运维·服务器·信号处理
森诺Alyson6 小时前
前沿技术借鉴研讨-2025.10.28(超声数据)
论文阅读·经验分享·深度学习·论文笔记·论文讨论
CClaris6 小时前
机器学习中的数学——矩阵与向量基础
人工智能·机器学习·矩阵
九年义务漏网鲨鱼6 小时前
BLIP2 工业实战(一):从零实现 LAVIS 跌倒检测 (微调与“踩坑”指南)
人工智能·pytorch·深度学习·语言模型
大千AI助手7 小时前
Netflix Prize竞赛:推荐系统的里程碑与机器学习革命的催化剂
人工智能·机器学习·推荐系统·netflix·竞赛·电影推荐·冷启动
CoookeCola8 小时前
开源图像与视频过曝检测工具:HSV色彩空间分析与时序平滑处理技术详解
人工智能·深度学习·算法·目标检测·计算机视觉·开源·音视频
CoovallyAIHub8 小时前
万字详解:多目标跟踪(MOT)终极指南
深度学习·算法·计算机视觉