机器学习、深度学习、信号处理领域常用符号速查表

机器学习、深度学习、信号处理领域常用符号速查表

一、机器学习领域常用符号(55+)

覆盖基础数据描述、模型参数、概率分布、评估指标、细分任务(分类、回归、聚类、贝叶斯、集成学习等)核心符号。

符号(LaTeX) 英文全称 中文解释 常见应用场景
1. 数据与特征相关
xxx Input/Feature Vector 输入向量/特征向量 单个样本的特征表示,如图片的像素向量、样本的属性向量
xix_ixi iii-th Input Vector 第iii个样本的输入向量 训练集中第iii个样本的特征向量
xijx_{ij}xij jjj-th Feature of iii-th Sample 第iii个样本的第jjj个特征值 特征矩阵中第iii行第jjj列的元素
XXX Input/Feature Matrix 输入矩阵/特征矩阵 多样本特征集合,维度为n×dn \times dn×d(nnn样本数,ddd特征数)
X(train)X^{(train)}X(train) Training Feature Matrix 训练集特征矩阵 用于模型训练的特征矩阵
X(test)X^{(test)}X(test) Test Feature Matrix 测试集特征矩阵 用于模型评估的特征矩阵
yyy True Label Vector 真实标签向量 样本的真实输出值集合
yiy_iyi True Label of iii-th Sample 第iii个样本的真实标签 单个样本的真实输出,分类任务为类别,回归为连续值
y^\hat{y}y^ Predicted Label Vector 预测标签向量 模型输出的预测值集合
y^i\hat{y}_iy^i Predicted Label of iii-th Sample 第iii个样本的预测标签 单个样本的模型预测结果
y^(x)\hat{y}(x)y^(x) Prediction Function 预测函数 输入xxx到预测值y^\hat{y}y^的映射关系,即模型本身
nnn Number of Samples 样本数量 训练集/测试集/验证集中的样本总数
ddd Dimension of Features 特征维度 单个样本的特征数量,即输入向量xxx的维度
CCC Number of Classes 类别数量 分类任务中待区分的类别总数,二分类时C=2C=2C=2
cic_ici Class Label of iii-th Sample 第iii个样本的类别标签 分类任务中样本所属的类别标识(如0,1,...,C-1)
2. 模型参数相关
www Weight Vector 权重向量 线性模型(LR、SVM)中特征的权重,维度d×1d \times 1d×1
wjw_jwj Weight of jjj-th Feature 第jjj个特征的权重 单个特征对模型输出的贡献程度
WWW Weight Matrix 权重矩阵 多输出模型或线性层的权重参数,维度d×Cd \times Cd×C(分类)
bbb Bias Term 偏置项 线性模型中调整输出基准的参数,抵消特征均值影响
θ\thetaθ Model Parameter Set 模型参数集合 模型中所有可训练参数的统称(如w,W,bw,W,bw,W,b等)
θ(t)\theta^{(t)}θ(t) Model Parameters at ttt-th Iteration 第ttt次迭代的模型参数 梯度下降过程中第ttt步的参数状态
ϕ(x)\phi(x)ϕ(x) Feature Mapping Function 特征映射函数 将原始特征xxx映射到高维特征空间的函数,如SVM核映射
Φ\PhiΦ Feature Mapping Matrix 特征映射矩阵 所有样本经过特征映射后的矩阵,维度n×d′n \times d'n×d′(d′d'd′为映射后维度)
α\alphaα Lagrange Multiplier 拉格朗日乘子 SVM、正则化等优化问题中引入的约束参数
λ\lambdaλ Regularization Parameter 正则化参数 控制模型复杂度与拟合程度的平衡,如L1/L2正则化
3. 概率与分布相关
p(X)p(X)p(X) Probability Distribution of XXX 随机变量XXX的概率分布 描述随机变量XXX取值的概率规律
p(x)p(x)p(x) Probability Density Function (PDF) 概率密度函数 连续型随机变量XXX在xxx点的密度,用于计算区间概率
P(x)P(x)P(x) Probability Mass Function (PMF) 概率质量函数 离散型随机变量XXX取xxx值的概率
p(y∣x)p(y \mid x)p(y∣x) Conditional Probability Distribution 条件概率分布 给定输入xxx时,输出yyy的概率分布
p(θ)p(\theta)p(θ) Prior Distribution 先验分布 贝叶斯模型中,参数θ\thetaθ在观测数据前的概率分布
p(θ∣D)p(\theta \mid D)p(θ∣D) Posterior Distribution 后验分布 贝叶斯模型中,观测数据DDD后参数θ\thetaθ的更新分布
p(D∣θ)p(D \mid \theta)p(D∣θ) Likelihood Function 似然函数 给定参数θ\thetaθ时,观测到数据DDD的概率
N(μ,σ2)\mathcal{N}(\mu, \sigma^2)N(μ,σ2) Normal/Gaussian Distribution 正态/高斯分布 连续数据常用分布,μ\muμ为均值,σ2\sigma^2σ2为方差
Bernoulli(p)\text{Bernoulli}(p)Bernoulli(p) Bernoulli Distribution 伯努利分布 二分类离散分布,取值0/1的概率分别为1−p/p1-p/p1−p/p
Cat(p1,...,pC)\text{Cat}(p_1,...,p_C)Cat(p1,...,pC) Categorical Distribution 类别分布 多分类离散分布,取值为CCC个类别,概率为p1,...,pCp_1,...,p_Cp1,...,pC
μ\muμ Mean/Expectation 均值/期望 随机变量的平均值,μ=E[X]\mu = \mathbb{E}[X]μ=E[X]
σ2\sigma^2σ2 Variance 方差 随机变量偏离均值的程度,σ2=V[X]\sigma^2 = \mathbb{V}[X]σ2=V[X]
σ\sigmaσ Standard Deviation 标准差 方差的平方根,与随机变量同单位
Σ\SigmaΣ Covariance Matrix 协方差矩阵 多变量间线性相关程度,Σij=Cov(Xi,Xj)\Sigma_{ij} = \text{Cov}(X_i,X_j)Σij=Cov(Xi,Xj)
E[X]\mathbb{E}[X]E[X] Expectation of XXX 随机变量XXX的期望 随机变量取值的加权平均,权重为概率
V[X]\mathbb{V}[X]V[X] Variance of XXX 随机变量XXX的方差 期望的平方偏差,V[X]=E[(X−E[X])2]\mathbb{V}[X] = \mathbb{E}[(X-\mathbb{E}[X])^2]V[X]=E[(X−E[X])2]
Cov(X,Y)\text{Cov}(X,Y)Cov(X,Y) Covariance between XXX and YYY 随机变量XXX与YYY的协方差 衡量两者线性相关程度,Cov(X,Y)=E[(X−μX)(Y−μY)]\text{Cov}(X,Y) = \mathbb{E}[(X-\mu_X)(Y-\mu_Y)]Cov(X,Y)=E[(X−μX)(Y−μY)]
ρ(X,Y)\rho(X,Y)ρ(X,Y) Correlation Coefficient between XXX and YYY 随机变量XXX与YYY的相关系数 标准化协方差,取值[-1,1],消除量纲影响
4. 评估与优化相关
LLL Loss Function 损失函数 单个样本预测值与真实值的差异,如MSE、CE
LiL_iLi Loss of iii-th Sample 第iii个样本的损失 单个样本的损失值,用于计算总代价
JJJ Cost/Objective Function 代价/目标函数 整个训练集的损失均值,J=1n∑i=1nLiJ = \frac{1}{n}\sum_{i=1}^n L_iJ=n1∑i=1nLi
JregJ_{reg}Jreg Regularized Cost Function 正则化代价函数 代价函数+正则项,Jreg=J+λR(θ)J_{reg} = J + \lambda R(\theta)Jreg=J+λR(θ)
R(θ)R(\theta)R(θ) Regularization Term 正则化项 控制模型复杂度,如L1正则$R(\theta)=
TPTPTP True Positive 真阳性 实际正类且预测正类的样本数
TNTNTN True Negative 真阴性 实际负类且预测负类的样本数
FPFPFP False Positive 假阳性 实际负类但预测正类的样本数(误判)
FNFNFN False Negative 假阴性 实际正类但预测负类的样本数(漏判)
PrecisionPrecisionPrecision Precision Score 精确率 预测正类中实际正类的比例,Precision=TPTP+FPPrecision = \frac{TP}{TP+FP}Precision=TP+FPTP
RecallRecallRecall Recall Score 召回率 实际正类中被预测正类的比例,Recall=TPTP+FNRecall = \frac{TP}{TP+FN}Recall=TP+FNTP
F1F1F1 F1-Score F1分数 精确率与召回率的调和平均,F1=2×Precision×RecallPrecision+RecallF1 = 2\times\frac{Precision \times Recall}{Precision + Recall}F1=2×Precision+RecallPrecision×Recall
AccAccAcc Accuracy 准确率 所有预测正确样本占总样本的比例,Acc=TP+TNnAcc = \frac{TP+TN}{n}Acc=nTP+TN
AUCAUCAUC Area Under ROC Curve ROC曲线下面积 评估模型泛化能力,取值[0,1],越接近1性能越好
FPRFPRFPR False Positive Rate 假正率 实际负类中被预测正类的比例,FPR=FPTN+FPFPR = \frac{FP}{TN+FP}FPR=TN+FPFP
TNRTNRTNR True Negative Rate 真负率 实际负类中被预测负类的比例,TNR=TNTN+FPTNR = \frac{TN}{TN+FP}TNR=TN+FPTN(又称Specificity)
5. 细分任务相关
kkk Number of Clusters 聚类数量 K-Means等聚类算法中预设的簇数
ziz_izi Cluster Assignment of iii-th Sample 第iii个样本的聚类分配 样本所属簇的标识,如zi=kz_i=kzi=k表示属于第kkk簇
μk\mu_kμk Centroid of kkk-th Cluster 第kkk个聚类中心 第kkk簇所有样本的均值向量
GGG Base Learner 基学习器 集成学习(Bagging、Boosting)中单个基础模型
GmG_mGm mmm-th Base Learner 第mmm个基学习器 集成学习中第mmm个训练的基础模型
ωm\omega_mωm Weight of mmm-th Base Learner 第mmm个基学习器的权重 集成学习中基模型预测结果的权重,如AdaBoost
ωi\omega_iωi Weight of iii-th Sample 第iii个样本的权重 集成学习中样本的重要性权重,如AdaBoost中调整误分类样本权重

二、深度学习领域常用符号

符号(LaTeX) 英文全称 中文解释 常见应用场景
1. 神经网络基础
lll Layer Index 层索引 神经网络中图层的序号,输入层为l=0l=0l=0,输出层为l=Ll=Ll=L
LLL Number of Layers 网络层数 神经网络中可训练层的总数(不含输入层)
ala^lal Activation of lll-th Layer 第lll层的激活值 第lll层的输出,al=f(zl)a^l = f(z^l)al=f(zl),a0=xa^0=xa0=x(输入层)
aila_i^lail Activation of iii-th Neuron in lll-th Layer 第lll层第iii个神经元的激活值 单个神经元的输出值
zlz^lzl Pre-activation of lll-th Layer 第lll层的预激活值 第lll层输入的线性变换结果,zl=Wlal−1+blz^l = W^l a^{l-1} + b^lzl=Wlal−1+bl
zilz_i^lzil Pre-activation of iii-th Neuron in lll-th Layer 第lll层第iii个神经元的预激活值 单个神经元线性变换后的结果,zil=∑jWijlajl−1+bilz_i^l = \sum_j W_{ij}^l a_j^{l-1} + b_i^lzil=∑jWijlajl−1+bil
WlW^lWl Weight Matrix of lll-th Layer 第lll层的权重矩阵 第lll层与l−1l-1l−1层神经元间的连接权重,维度nl×nl−1n_l \times n_{l-1}nl×nl−1(nln_lnl为第lll层神经元数)
WijlW_{ij}^lWijl Weight from jjj-th Neuron (Layer l−1l-1l−1) to iii-th Neuron (Layer lll) 第l−1l-1l−1层第jjj个神经元到第lll层第iii个神经元的权重 单个连接的权重值,决定前层神经元对后层的影响
blb^lbl Bias Vector of lll-th Layer 第lll层的偏置向量 第lll层神经元的偏置参数,维度nl×1n_l \times 1nl×1
bilb_i^lbil Bias of iii-th Neuron in lll-th Layer 第lll层第iii个神经元的偏置 单个神经元的偏置值,调整神经元激活阈值
f(⋅)f(\cdot)f(⋅) Activation Function 激活函数 引入非线性,如ReLU、Sigmoid、Tanh等
f′(⋅)f'(\cdot)f′(⋅) Derivative of Activation Function 激活函数的导数 反向传播中计算梯度的关键,如f′(zl)=∂al∂zlf'(z^l) = \frac{\partial a^l}{\partial z^l}f′(zl)=∂zl∂al
fθ(⋅)f_{\theta}(\cdot)fθ(⋅) Deep Learning Model with Parameters θ\thetaθ 带参数θ\thetaθ的深度学习模型 深度学习模型的统称,θ={Wl,bl∣l=1,...,L}\theta = \{W^l, b^l \mid l=1,...,L\}θ={Wl,bl∣l=1,...,L}
2. 激活函数相关
σ(⋅)\sigma(\cdot)σ(⋅) Sigmoid Function Sigmoid激活函数 输出映射到(0,1),用于二分类输出层、门控机制
ReLU(⋅)\text{ReLU}(\cdot)ReLU(⋅) Rectified Linear Unit ReLU激活函数 隐藏层常用,ReLU(z)=max⁡(0,z)\text{ReLU}(z) = \max(0, z)ReLU(z)=max(0,z),缓解梯度消失
LeakyReLU(⋅)\text{LeakyReLU}(\cdot)LeakyReLU(⋅) Leaky ReLU Activation Function Leaky ReLU激活函数 ReLU变体,负半轴保留小梯度,LeakyReLU(z)=max⁡(αz,z)\text{LeakyReLU}(z) = \max(\alpha z, z)LeakyReLU(z)=max(αz,z)(α\alphaα为小常数)
tanh⁡(⋅)\tanh(\cdot)tanh(⋅) Hyperbolic Tangent Function Tanh激活函数 输出映射到(-1,1),常用于RNN隐藏层
Softmax(⋅)\text{Softmax}(\cdot)Softmax(⋅) Softmax Function Softmax激活函数 多分类输出层,将zLz^LzL映射为概率分布,Softmax(ziL)=eziL∑jezjL\text{Softmax}(z_i^L) = \frac{e^{z_i^L}}{\sum_j e^{z_j^L}}Softmax(ziL)=∑jezjLeziL
GELU(⋅)\text{GELU}(\cdot)GELU(⋅) Gaussian Error Linear Unit GELU激活函数 Transformer常用,GELU(z)=zΦ(z)\text{GELU}(z) = z \Phi(z)GELU(z)=zΦ(z)(Φ\PhiΦ为标准正态CDF)
3. CNN相关
KKK Number of Filters/Kernels 卷积核数量 CNN卷积层中卷积核的个数,决定输出通道数
KlK^lKl Filter Set of lll-th Convolutional Layer 第lll卷积层的卷积核集合 第lll卷积层所有卷积核的统称,共KlK^lKl个
ksk_sks Kernel Size 卷积核尺寸 卷积核的空间大小,如3×33 \times 33×3、5×55 \times 55×5
sss Stride 步长 卷积核/池化核在输入特征图上的滑动步长
ppp Padding Size 填充尺寸 输入特征图边缘填充的像素数,如Same Padding(保持尺寸)、Valid Padding(无填充)
HHH Height of Feature Map 特征图高度 CNN中特征图的垂直维度大小
WWW Width of Feature Map 特征图宽度 CNN中特征图的水平维度大小
CCC Number of Channels of Feature Map 特征图通道数 CNN中特征图的深度维度,如RGB图像为3通道
Hin/Win/CinH_{in}/W_{in}/C_{in}Hin/Win/Cin Input Feature Map Height/Width/Channels 输入特征图的高/宽/通道数 卷积层输入特征图的维度参数
Hout/Wout/CoutH_{out}/W_{out}/C_{out}Hout/Wout/Cout Output Feature Map Height/Width/Channels 输出特征图的高/宽/通道数 卷积层输出特征图的维度,Cout=KC_{out}=KCout=K,Hout=⌊Hin−ks+2ps+1⌋H_{out} = \lfloor \frac{H_{in} - k_s + 2p}{s} + 1 \rfloorHout=⌊sHin−ks+2p+1⌋
PPP Pooling Operation 池化操作 降低特征图维度,如Max Pooling(最大池化)、Average Pooling(平均池化)
kpk_pkp Pooling Kernel Size 池化核尺寸 池化操作中核的空间大小,如2×22 \times 22×2
sps_psp Pooling Stride 池化步长 池化核滑动的步长,常与池化核尺寸相同(无重叠)
4. RNN/LSTM相关
hth^tht Hidden State at Time Step ttt 时刻ttt的隐藏状态 RNN/LSTM在时刻ttt的输出状态,包含历史信息
h0h_0h0 Initial Hidden State 初始隐藏状态 RNN/LSTM的初始状态,通常设为全0向量
xtx^txt Input at Time Step ttt 时刻ttt的输入 时序数据在时刻ttt的输入向量,如文本的第ttt个词嵌入
yty^tyt Output at Time Step ttt 时刻ttt的输出 RNN/LSTM在时刻ttt的预测输出
iti^tit Input Gate at Time Step ttt 时刻ttt的输入门 LSTM中控制新信息进入细胞状态的门控
ftf^tft Forget Gate at Time Step ttt 时刻ttt的遗忘门 LSTM中控制历史细胞状态丢弃的门控
oto^tot Output Gate at Time Step ttt 时刻ttt的输出门 LSTM中控制细胞状态输出到隐藏状态的门控
c~t\tilde{c}^tc~t Candidate Cell State at Time Step ttt 时刻ttt的候选细胞状态 LSTM中待更新的细胞状态候选值
ctc^tct Cell State at Time Step ttt 时刻ttt的细胞状态 LSTM中长期记忆的存储状态,梯度消失缓解关键
c0c_0c0 Initial Cell State 初始细胞状态 LSTM的初始细胞状态,通常设为全0向量
5. Transformer相关
QQQ Query Matrix 查询矩阵 Transformer注意力机制中,用于"查询"的矩阵
KKK Key Matrix 键矩阵 Transformer注意力机制中,用于"匹配"的矩阵
VVV Value Matrix 值矩阵 Transformer注意力机制中,用于"输出"的矩阵
Attn(Q,K,V)\text{Attn}(Q,K,V)Attn(Q,K,V) Attention Function 注意力函数 计算Q与K的相似度,加权求和V,Attn(Q,K,V)=softmax(QKTdk)V\text{Attn}(Q,K,V) = \text{softmax}(\frac{QK^T}{\sqrt{d_k}})VAttn(Q,K,V)=softmax(dk QKT)V
dkd_kdk Dimension of Query/Key 查询/键向量维度 Transformer中Q/K的维度,用于缩放注意力得分
dvd_vdv Dimension of Value 值向量维度 Transformer中V的维度
dmodeld_{\text{model}}dmodel Model Dimension 模型维度 Transformer中词嵌入及隐藏层的维度,如BERT-base中dmodel=768d_{\text{model}}=768dmodel=768
hhh Number of Attention Heads 注意力头数 多头注意力中并行注意力头的数量,如BERT中h=12h=12h=12
MHAttn\text{MHAttn}MHAttn Multi-Head Attention 多头注意力 Transformer核心模块,将Q/K/V拆分后并行计算注意力再拼接
FFN\text{FFN}FFN Feed-Forward Network 前馈神经网络 Transformer中每个编码器/解码器层后的全连接网络,FFN(x)=max⁡(0,xW1+b1)W2+b2\text{FFN}(x) = \max(0, xW_1 + b_1)W_2 + b_2FFN(x)=max(0,xW1+b1)W2+b2
PosEmb\text{PosEmb}PosEmb Positional Embedding 位置嵌入 Transformer中加入时序信息的嵌入向量,与词嵌入相加
6. 优化与训练相关
∇θJ\nabla_{\theta} J∇θJ Gradient of Cost Function w.r.t. θ\thetaθ 代价函数关于参数θ\thetaθ的梯度 优化器更新参数的依据,∇θJ=∂J∂θ\nabla_{\theta} J = \frac{\partial J}{\partial \theta}∇θJ=∂θ∂J
∇θLi\nabla_{\theta} L_i∇θLi Gradient of Loss w.r.t. θ\thetaθ for iii-th Sample 第iii个样本损失关于θ\thetaθ的梯度 单个样本的梯度,批量梯度下降中需求和
η\etaη Learning Rate 学习率 参数更新步长,θ(t+1)=θ(t)−η∇θJ\theta^{(t+1)} = \theta^{(t)} - \eta \nabla_{\theta} Jθ(t+1)=θ(t)−η∇θJ
γ\gammaγ Momentum Factor 动量因子 动量优化中保留历史梯度的系数,如SGD-Momentum
β1,β2\beta_1, \beta_2β1,β2 Exponential Decay Rates 指数衰减率 Adam优化器中一阶矩、二阶矩估计的衰减系数,通常取0.9和0.999
ϵ\epsilonϵ Epsilon 微小常数 优化器中避免分母为0的稳定项,如Adam中ϵ=10−8\epsilon=10^{-8}ϵ=10−8
BBB Batch Size 批次大小 每次迭代训练的样本数量,影响训练稳定性与速度
ttt Training Iteration 训练迭代次数 模型参数更新的次数,1次迭代处理1个批次
EEE Training Epoch 训练轮次 整个训练集被完整训练一次的次数,1轮=总样本数/B
Dropout(p)\text{Dropout}(p)Dropout(p) Dropout Operation Dropout操作 正则化手段,训练时以概率ppp随机丢弃神经元,测试时缩放
pdropp_{\text{drop}}pdrop Dropout Probability Dropout概率 训练时神经元被丢弃的概率,通常取0.5
7. 生成模型相关
pgp_gpg Generated Distribution 生成分布 GAN、VAE等生成模型学习到的数据分布
prp_rpr Real Distribution 真实分布 生成模型中训练数据的真实分布
GGG Generator 生成器 GAN中从噪声生成假样本的模型,G(z)∼pgG(z) \sim p_gG(z)∼pg(zzz为噪声)
DDD Discriminator 判别器 GAN中区分真实样本与生成样本的模型,输出为概率
zzz Latent Vector/Noise Vector latent向量/噪声向量 生成模型中输入生成器的随机向量,通常服从正态分布
V(G,D)V(G,D)V(G,D) Value Function of GAN GAN的价值函数 GAN的优化目标,V(G,D)=Ex∼pr[log⁡D(x)]+Ez∼pz[log⁡(1−D(G(z)))]V(G,D) = \mathbb{E}{x \sim p_r}[\log D(x)] + \mathbb{E}{z \sim p_z}[\log(1-D(G(z)))]V(G,D)=Ex∼pr[logD(x)]+Ez∼pz[log(1−D(G(z)))]
IS\text{IS}IS Inception Score Inception分数 评估生成图像质量与多样性,值越大性能越好
FID\text{FID}FID Fréchet Inception Distance Fréchet Inception距离 衡量生成样本与真实样本分布差异,值越小越好

三、信号处理领域常用符号

聚焦时域/频域分析、信号特征、系统响应、滤波降噪、调制解调、检测识别等核心场景,覆盖连续/离散信号处理符号。

符号(LaTeX) 英文全称 中文解释 常见应用场景
1. 信号基础表示
x(t)x(t)x(t) Continuous-Time Signal 连续时间信号 时域连续的信号,如模拟电压、声波、电磁波
x[n]x[n]x[n] Discrete-Time Signal 离散时间信号 时域离散的信号,由连续信号采样得到,nnn为整数采样点
xa(t)x_a(t)xa(t) Analog Signal 模拟信号 幅值与时间均连续的信号,即连续时间信号
xd[n]x_d[n]xd[n] Digital Signal 数字信号 幅值与时间均离散的信号,由离散时间信号量化得到
ttt Continuous Time Variable 连续时间变量 连续信号的时间参数,单位s(秒)
nnn Discrete Time Index 离散时间索引 离散信号的采样点序号,取值为整数(n=0,±1,±2,...n=0,±1,±2,...n=0,±1,±2,...)
TsT_sTs Sampling Period 采样周期 离散信号相邻采样点的时间间隔,Ts=tn+1−tnT_s = t_{n+1} - t_nTs=tn+1−tn,单位s
fsf_sfs Sampling Frequency 采样频率 单位时间内的采样次数,fs=1Tsf_s = \frac{1}{T_s}fs=Ts1,单位Hz(赫兹)
fNf_NfN Nyquist Frequency 奈奎斯特频率 采样频率的一半,fN=fs2f_N = \frac{f_s}{2}fN=2fs,超过此频率的信号会混叠
AAA Amplitude of Signal 信号幅值 信号的最大振动幅度,如正弦信号x(t)=Asin⁡(ωt+ϕ)x(t)=A\sin(\omega t+\phi)x(t)=Asin(ωt+ϕ)中的AAA
ArmsA_{rms}Arms Root Mean Square Amplitude 均方根幅值 信号幅值的有效值,Arms=1T∫0Tx2(t)dtA_{rms} = \sqrt{\frac{1}{T}\int_0^T x^2(t)dt}Arms=T1∫0Tx2(t)dt ,用于计算功率
ϕ\phiϕ Phase of Signal 信号相位 正弦信号的初始相位,单位rad(弧度),如x(t)=Asin⁡(ωt+ϕ)x(t)=A\sin(\omega t+\phi)x(t)=Asin(ωt+ϕ)中的ϕ\phiϕ
TTT Period of Periodic Signal 周期信号的周期 周期信号重复的时间间隔,满足x(t+T)=x(t)x(t+T)=x(t)x(t+T)=x(t),单位s
f0f_0f0 Fundamental Frequency 基波频率 周期信号的基本频率,f0=1Tf_0 = \frac{1}{T}f0=T1,单位Hz
xT(t)x_T(t)xT(t) Truncated Signal 截断信号 有限时间长度的信号,由无限长信号截断得到
xN[n]x_N[n]xN[n] Finite-Length Discrete Signal 有限长离散信号 仅在n=0,1,...,N−1n=0,1,...,N-1n=0,1,...,N−1有值的离散信号,长度为NNN
2. 频率与频域分析
fff Frequency 频率 信号周期性变化的速率,单位Hz(1/s),描述信号在频域的位置
ω\omegaω Angular Frequency 角频率 频率的2π2\pi2π倍,ω=2πf\omega = 2\pi fω=2πf,单位rad/s(弧度/秒)
Ω\OmegaΩ Digital Angular Frequency 数字角频率 离散信号的角频率,Ω=ωTs=2πfTs\Omega = \omega T_s = 2\pi f T_sΩ=ωTs=2πfTs,单位rad,取值范围[−π,π][-\pi,\pi][−π,π]
X(f)X(f)X(f) Continuous-Time Fourier Transform (CTFT) 连续时间傅里叶变换 将连续时间信号x(t)x(t)x(t)转换到频域,X(f)=∫−∞∞x(t)e−j2πftdtX(f) = \int_{-\infty}^{\infty} x(t)e^{-j2\pi f t}dtX(f)=∫−∞∞x(t)e−j2πftdt
X(ω)X(\omega)X(ω) Continuous-Time Fourier Transform (CTFT) 连续时间傅里叶变换(角频率形式) 以角频率ω\omegaω表示的频域信号,X(ω)=∫−∞∞x(t)e−jωtdtX(\omega) = \int_{-\infty}^{\infty} x(t)e^{-j\omega t}dtX(ω)=∫−∞∞x(t)e−jωtdt
X[k]X[k]X[k] Discrete Fourier Transform (DFT) 离散傅里叶变换 有限长离散信号x[n]x[n]x[n]的频域表示,X[k]=∑n=0N−1x[n]e−j2πNknX[k] = \sum_{n=0}^{N-1} x[n]e^{-j\frac{2\pi}{N}kn}X[k]=∑n=0N−1x[n]e−jN2πkn(k=0,...,N−1k=0,...,N-1k=0,...,N−1)
X(ejΩ)X(e^{j\Omega})X(ejΩ) Discrete-Time Fourier Transform (DTFT) 离散时间傅里叶变换 离散时间信号x[n]x[n]x[n]的频域表示,X(ejΩ)=∑n=−∞∞x[n]e−jΩnX(e^{j\Omega}) = \sum_{n=-\infty}^{\infty} x[n]e^{-j\Omega n}X(ejΩ)=∑n=−∞∞x[n]e−jΩn
FFT\text{FFT}FFT Fast Fourier Transform 快速傅里叶变换 DFT的高效算法,降低计算复杂度从O(N2)O(N^2)O(N2)到O(Nlog⁡N)O(N\log N)O(NlogN)
X(f)↔x(t)X(f) \leftrightarrow x(t)X(f)↔x(t) Fourier Transform Pair 傅里叶变换对 时域信号x(t)x(t)x(t)与频域信号X(f)X(f)X(f)的对应关系
∣X(f)∣|X(f)|∣X(f)∣ Magnitude Spectrum 幅度谱 频域信号的幅值,描述不同频率成分的强度
∠X(f)\angle X(f)∠X(f) Phase Spectrum 相位谱 频域信号的相位,描述不同频率成分的相位偏移
Px(f)P_x(f)Px(f) Power Spectral Density (PSD) 功率谱密度 信号功率随频率的分布,$P_x(f) = \lim_{T \to \infty} \frac{1}{T}
Sx(f)S_x(f)Sx(f) Energy Spectral Density (ESD) 能量谱密度 信号能量随频率的分布,$S_x(f) =
3. 线性系统相关
h(t)h(t)h(t) Continuous-Time Impulse Response 连续时间冲激响应 线性时不变(LTI)系统对单位冲激信号δ(t)\delta(t)δ(t)的时域响应
h[n]h[n]h[n] Discrete-Time Impulse Response 离散时间冲激响应 LTI系统对单位冲激序列δ[n]\delta[n]δ[n]的时域响应
H(f)H(f)H(f) Frequency Response 频率响应 LTI系统的频域特性,H(f)=∫−∞∞h(t)e−j2πftdtH(f) = \int_{-\infty}^{\infty} h(t)e^{-j2\pi f t}dtH(f)=∫−∞∞h(t)e−j2πftdt(连续),即冲激响应的傅里叶变换
H(ω)H(\omega)H(ω) Frequency Response (Angular Frequency) 频率响应(角频率形式) 以角频率表示的系统频域特性,H(ω)=F{h(t)}H(\omega) = \mathcal{F}\{h(t)\}H(ω)=F{h(t)}
H(ejΩ)H(e^{j\Omega})H(ejΩ) Discrete-Time Frequency Response 离散时间频率响应 离散LTI系统的频域特性,H(ejΩ)=DTFT{h[n]}H(e^{j\Omega}) = \mathcal{DTFT}\{h[n]\}H(ejΩ)=DTFT{h[n]}
$ H(f) $ Magnitude Response
∠H(f)\angle H(f)∠H(f) Phase Response 相位响应 频率响应的相位,描述系统对不同频率信号的相位偏移
y(t)y(t)y(t) Output Signal of System 系统输出信号 LTI系统对输入x(t)x(t)x(t)的响应,y(t)=x(t)∗h(t)y(t) = x(t) * h(t)y(t)=x(t)∗h(t)(卷积)
y[n]y[n]y[n] Discrete-Time Output Signal 离散系统输出信号 离散LTI系统对输入x[n]x[n]x[n]的响应,y[n]=x[n]∗h[n]y[n] = x[n] * h[n]y[n]=x[n]∗h[n](离散卷积)
∗*∗ Convolution Operation 卷积运算 LTI系统输入与输出的关系,时域卷积对应频域乘积
δ(t)\delta(t)δ(t) Dirac Delta Function 狄拉克冲激函数 连续时间单位冲激信号,满足δ(t)=0(t≠0)\delta(t)=0(t≠0)δ(t)=0(t=0)、∫−∞∞δ(t)dt=1\int_{-\infty}^{\infty}\delta(t)dt=1∫−∞∞δ(t)dt=1
δ[n]\delta[n]δ[n] Discrete Delta Sequence 离散单位冲激序列 离散时间单位冲激信号,满足δ[n]=1(n=0)\delta[n]=1(n=0)δ[n]=1(n=0)、δ[n]=0(n≠0)\delta[n]=0(n≠0)δ[n]=0(n=0)
4. 信号质量与失真
d(t)d(t)d(t) Noise Signal 噪声信号 干扰有效信号的随机信号,如高斯白噪声、热噪声
d[n]d[n]d[n] Discrete-Time Noise Signal 离散时间噪声信号 离散信号中的噪声成分,如采样过程引入的噪声
xcorr(t)x_{\text{corr}}(t)xcorr(t) Corrupted Signal 受污染信号 包含噪声的信号,xcorr(t)=x(t)+d(t)x_{\text{corr}}(t) = x(t) + d(t)xcorr(t)=x(t)+d(t)
xorig(t)x_{\text{orig}}(t)xorig(t) Original Signal 原始信号 未经过处理的纯净信号,如理想输入信号
xproc(t)x_{\text{proc}}(t)xproc(t) Processed Signal 处理后信号 经过滤波、降噪等处理后的信号
SNRSNRSNR Signal-to-Noise Ratio 信噪比 信号功率与噪声功率的比值,SNR=10log⁡10(PsPd) (dB)SNR = 10\log_{10}\left( \frac{P_s}{P_d} \right) \text{ (dB)}SNR=10log10(PdPs) (dB),值越大信号质量越好
SNRinSNR_{\text{in}}SNRin Input Signal-to-Noise Ratio 输入信噪比 系统输入信号的信噪比,衡量输入信号质量
SNRoutSNR_{\text{out}}SNRout Output Signal-to-Noise Ratio 输出信噪比 系统输出信号的信噪比,衡量系统处理效果
ΔSNR\Delta SNRΔSNR SNR Improvement 信噪比改善量 输出与输入信噪比的差值,ΔSNR=SNRout−SNRin\Delta SNR = SNR_{\text{out}} - SNR_{\text{in}}ΔSNR=SNRout−SNRin,衡量降噪效果
PSNRPSNRPSNR Peak Signal-to-Noise Ratio 峰值信噪比 基于信号峰值的信噪比,PSNR=10log⁡10(Amax2MSE) (dB)PSNR = 10\log_{10}\left( \frac{A_{\text{max}}^2}{MSE} \right) \text{ (dB)}PSNR=10log10(MSEAmax2) (dB),常用于图像/音频失真评估
MSEMSEMSE Mean Square Error 均方误差 原始与处理信号的偏差,MSE=1N∑n=0N−1(xorig[n]−xproc[n])2MSE = \frac{1}{N}\sum_{n=0}^{N-1} (x_{\text{orig}}[n] - x_{\text{proc}}[n])^2MSE=N1∑n=0N−1(xorig[n]−xproc[n])2,值越小失真越小
MAEMAEMAE Mean Absolute Error 平均绝对误差 原始与处理信号的绝对偏差均值,$MAE = \frac{1}{N}\sum_{n=0}^{N-1}
ρ\rhoρ Correlation Coefficient 相关系数 衡量两个信号的线性相关性,ρ=Cov(x,y)Var(x)Var(y)\rho = \frac{\text{Cov}(x,y)}{\sqrt{\text{Var}(x)\text{Var}(y)}}ρ=Var(x)Var(y) Cov(x,y),取值[-1,1]
rxy(τ)r_{xy}(\tau)rxy(τ) Cross-Correlation Function 互相关函数 衡量两个信号在不同时延τ\tauτ下的相似性,rxy(τ)=∫−∞∞x(t)y(t+τ)dtr_{xy}(\tau) = \int_{-\infty}^{\infty} x(t)y(t+\tau)dtrxy(τ)=∫−∞∞x(t)y(t+τ)dt
rxx(τ)r_{xx}(\tau)rxx(τ) Autocorrelation Function 自相关函数 信号与自身时延版本的相关性,rxx(τ)=rxy(τ)∣y=xr_{xx}(\tau) = r_{xy}(\tau)|_{y=x}rxx(τ)=rxy(τ)∣y=x,用于分析信号周期性
5. 滤波与调制相关
HL(f)H_L(f)HL(f) Low-Pass Filter Frequency Response 低通滤波器频率响应 允许低于截止频率fcf_cfc的信号通过,抑制高频信号
HH(f)H_H(f)HH(f) High-Pass Filter Frequency Response 高通滤波器频率响应 允许高于截止频率fcf_cfc的信号通过,抑制低频信号
HB(f)H_B(f)HB(f) Band-Pass Filter Frequency Response 带通滤波器频率响应 允许fc1∼fc2f_{c1} \sim f_{c2}fc1∼fc2频段的信号通过,抑制其他频率
HS(f)H_S(f)HS(f) Band-Stop Filter Frequency Response 带阻滤波器频率响应 抑制fc1∼fc2f_{c1} \sim f_{c2}fc1∼fc2频段的信号,允许其他频率通过
fcf_cfc Cutoff Frequency 截止频率 滤波器通带与阻带的分界频率,如低通滤波器的fcf_cfc
fc1,fc2f_{c1}, f_{c2}fc1,fc2 Lower/Upper Cutoff Frequency 下/上截止频率 带通/带阻滤波器的通带上下边界频率
WWW Filter Bandwidth 滤波器带宽 带通滤波器通带的频率范围,W=fc2−fc1W = f_{c2} - f_{c1}W=fc2−fc1,单位Hz
AsA_sAs Stopband Attenuation 阻带衰减 滤波器对阻带信号的衰减程度,单位dB,值越大抑制效果越好
ApA_pAp Passband Ripple 通带波纹 滤波器通带内的幅值波动,单位dB,值越小通带越平坦
s(t)s(t)s(t) Modulating Signal 调制信号 承载信息的低频信号,如语音、图像信号
c(t)c(t)c(t) Carrier Signal 载波信号 用于承载调制信号的高频正弦信号,c(t)=Acsin⁡(ωct+ϕc)c(t) = A_c\sin(\omega_c t + \phi_c)c(t)=Acsin(ωct+ϕc)
xAM(t)x_{\text{AM}}(t)xAM(t) Amplitude-Modulated Signal 调幅信号 幅值随调制信号变化的已调信号,xAM(t)=(A0+s(t))cos⁡(ωct)x_{\text{AM}}(t) = (A_0 + s(t))\cos(\omega_c t)xAM(t)=(A0+s(t))cos(ωct)
xFM(t)x_{\text{FM}}(t)xFM(t) Frequency-Modulated Signal 调频信号 频率随调制信号变化的已调信号,xFM(t)=Accos⁡(ωct+kf∫s(τ)dτ)x_{\text{FM}}(t) = A_c\cos(\omega_c t + k_f \int s(\tau)d\tau)xFM(t)=Accos(ωct+kf∫s(τ)dτ)
xPM(t)x_{\text{PM}}(t)xPM(t) Phase-Modulated Signal 调相信号 相位随调制信号变化的已调信号,xPM(t)=Accos⁡(ωct+kps(t))x_{\text{PM}}(t) = A_c\cos(\omega_c t + k_p s(t))xPM(t)=Accos(ωct+kps(t))
kfk_fkf Frequency Deviation Constant 频偏常数 调频中调制信号对载波频率的控制系数,单位rad/(s·V)
kpk_pkp Phase Deviation Constant 相偏常数 调相中调制信号对载波相位的控制系数,单位rad/V
6. 检测与识别相关
H0H_0H0 Null Hypothesis 零假设 信号检测中"无信号存在"的假设,H0:x(t)=d(t)H_0: x(t) = d(t)H0:x(t)=d(t)
H1H_1H1 Alternative Hypothesis 备选假设 信号检测中"有信号存在"的假设,H1:x(t)=s(t)+d(t)H_1: x(t) = s(t) + d(t)H1:x(t)=s(t)+d(t)
PdP_dPd Probability of Detection 检测概率 存在信号时正确检测的概率,Pd=P(判决H1∣H1为真)P_d = P(\text{判决}H_1 \mid H_1\text{为真})Pd=P(判决H1∣H1为真)
PfaP_{fa}Pfa Probability of False Alarm 虚警概率 无信号时误判为有信号的概率,Pfa=P(判决H1∣H0为真)P_{fa} = P(\text{判决}H_1 \mid H_0\text{为真})Pfa=P(判决H1∣H0为真)
PmP_mPm Probability of Miss 漏检概率 存在信号时误判为无信号的概率,Pm=1−PdP_m = 1 - P_dPm=1−Pd
γ\gammaγ Detection Threshold 检测门限 信号检测中判决的阈值,如T(x)>γT(x) > \gammaT(x)>γ判决H1H_1H1,否则判决H0H_0H0(T(x)T(x)T(x)为检验统计量)
T(x)T(x)T(x) Test Statistic 检验统计量 信号检测中用于判决的统计量,如信号能量、相关值
DTW\text{DTW}DTW Dynamic Time Warping 动态时间规整 衡量两个长度不同时序信号的相似度,用于信号匹配
D(x,y)D(x,y)D(x,y) Distance Between Signals xxx and yyy 信号xxx与yyy的距离 描述信号差异的度量,如欧氏距离、DTW距离
SSS Signal Feature Vector 信号特征向量 信号的特征表示,如时域特征(均值、方差)、频域特征(PSD峰值)
相关推荐
Small___ming7 小时前
【人工智能数学基础】多元高斯分布
人工智能·机器学习·概率论
渔舟渡简7 小时前
机器学习-回归分析概述
人工智能·机器学习
Godspeed Zhao8 小时前
自动驾驶中的传感器技术24.2——Camera(17)
人工智能·机器学习·自动驾驶
pen-ai9 小时前
【数据工程】19. 从 DataOps 到可扩展机器学习:让数据与模型协同进化
人工智能·机器学习
Blossom.1189 小时前
把AI“编”进草垫:1KB决策树让宠物垫自己报「如厕记录」
java·人工智能·python·算法·决策树·机器学习·宠物
rengang669 小时前
03-深度学习与机器学习的对比:分析深度学习与传统机器学习的异同
人工智能·深度学习·机器学习
咕咚-萌西10 小时前
DeepSeek-OCR
人工智能·深度学习·ocr
Godspeed Zhao10 小时前
自动驾驶中的传感器技术74——Navigation(11)
人工智能·机器学习·自动驾驶
Godspeed Zhao10 小时前
自动驾驶中的传感器技术75——Navigation(12)
人工智能·机器学习·自动驾驶