数学符号的标准写法 (机器学习方向)

摘要: 本贴讨论数学符号的标准写法, 列出 Latex 中使用的命令.
表 1. 矩阵相关符号

符号/操作 意义 Latex 命令
A \mathbf{A} A 矩阵 \mathbf{A}
A i \mathbf{A}_{i} Ai 带下标的矩阵, 注意不是矩阵的元素 (entry) \mathbf{A}_{i}
A i j \mathbf{A}_{ij} Aij 带双下标的矩阵矩阵 \mathbf{A}_{ij}
A i j \mathbf{A}^{ij} Aij 带双上标矩阵 \mathbf{A}^{ij}
A n \mathbf{A}^n An 矩阵的 n n n 次幂 \mathbf{A}^n
A − 1 \mathbf{A}^{-1} A−1 矩阵的逆 \mathbf{A}^{-1}
A + \mathbf{A}^+ A+ 矩阵的伪逆 \mathbf{A}^+
A 1 / 2 \mathbf{A}^{1/2} A1/2 矩阵的平方根, 不是逐元素计算 \mathbf{A}^{1/2}
( A ) i j (\mathbf{A})_{ij} (A)ij 矩阵的第 ( i , j ) (i, j) (i,j) 个元素 (\mathbf{A})_{ij}
A i j A_{ij} Aij 矩阵的第 ( i , j ) (i, j) (i,j) 个元素 A_{ij}
[ A ] i j [\mathbf{A}]_{ij} [A]ij 将 A \mathbf{A} A 第 i i i 行和第 j j j 列删除后的子矩阵 [\mathbf{A}]_{ij}
a \mathbf{a} a 向量 \mathbf{a}
a i \mathbf{a}_i ai 向量 \mathbf{a}_i
a i a_i ai 向量的第 i i i 个元素 a_i
a a a 标量 a
det ⁡ ( A ) \det(\mathbf{A}) det(A) 行列式 \det(\mathbf{A})
t r ( A ) \rm{tr}(\mathbf{A}) tr(A) \rm{tr}(\mathbf{A})
d i a g ( A ) \rm{diag}(\mathbf{A}) diag(A) 对角矩阵 \rm{diag}(\mathbf{A})
e i g ( A ) \rm{eig}(\mathbf{A}) eig(A) 特征值 \rm{eig}(\mathbf{A})
v e c ( A ) \rm{vec}(\mathbf{A}) vec(A) 按列堆叠成列向量 \rm{vec}(\mathbf{A})
∣ ∣ A ∣ ∣ ||\mathbf{A}|| ∣∣A∣∣ 范数, 需要写相应下标 \|\mathbf{A}\|
A T \mathbf{A}^{\mathsf{T}} AT 转置 \mathbf{A}^{\mathsf{T}},不用 T, \mathrm{T}, 或者 \top
A − T \mathbf{A}^{-\mathsf{T}} A−T ( A T ) − 1 (\mathbf{A}^{\mathsf{T}})^{-1} (AT)−1
A ∗ \mathbf{A}^* A∗ 复共轭矩阵 \mathbf{A}^*
A H \mathbf{A}^H AH 转置复共轭矩阵 \mathbf{A}^H
A ∘ B \mathbf{A} \circ \mathbf{B} A∘B Hadmard (逐个元素) 乘积 \mathbf{A} \circ \mathbf{B}
A ⊗ B \mathbf{A} \otimes \mathbf{B} A⊗B Kronecker 乘积 \mathbf{A} \otimes \mathbf{B}
0 \mathbf{0} 0 全 0 0 0 矩阵 \mathbf{0}
I \mathbf{I} I 单位矩阵 \mathbf{I}
E \mathbf{E} E 单位矩阵 \mathbf{E}
J i j \mathbf{J}^{ij} Jij 单元素矩阵, ( i , j ) (i, j) (i,j) 位置为 1 1 1 而其它为 0 0 0 \mathbf{J}^{ij}
Σ \mathbf{\Sigma} Σ 正定矩阵 \mathbf{\Sigma}
Λ \mathbf{\Lambda} Λ 对角矩阵 \mathbf{\Lambda}

表 2. 集合相关符号

符号 意义 主要 Latex 命令
A \mathbb{A} A 集合 \mathbb{A}
X \mathbb{X} X 训练集 \mathbb{X}
P \mathcal{P} P 幂集 \mathcal{P}
N \mathbb{N} N 自然数集 \mathbb{N}
R \mathbb{R} R 实数集 \mathbb{R}
{ 0 , 1 } \{0, 1\} {0,1} 仅含两个元素 0 0 0 与 1 1 1 的集合 \{0, 1\}
{ 0 , 1 , ... , n } \{0, 1, \dots, n\} {0,1,...,n} 0 0 0 到 n n n 的整数集合 \{0, 1, \dots, n\}
[ a , b ] [a, b] [a,b] a a a 到 b b b 实数闭区间 [a, b]
( a , b ] (a, b] (a,b] a a a 到 b b b 实数半开半闭区间 (a, b]
A ∩ B \mathbb{A} \cap \mathbb{B} A∩B 求交集 \mathbb{A} \cap \mathbb{B}
A ∪ B \mathbb{A} \cup \mathbb{B} A∪B 求并集 \mathbb{A} \cup \mathbb{B}
A ∖ B \mathbb{A} \setminus \mathbb{B} A∖B 集合减法 \mathbb{A} \setminus \mathbb{B}
G = ( V , E ) \mathcal{G} = (\mathbb{V}, \mathbb{E}) G=(V,E) 图, 由节点集合与边集合确定的二元组 \mathcal{G} = (\mathbb{V}, \mathbb{E})
max ⁡ A \max \mathbb{A} maxA 集合的最大元素 \max \mathbb{A}
min ⁡ A \min \mathbb{A} minA 集合的最小元素 \min \mathbb{A}

表 3. 函数相关符号

符号 意义 主要 Latex 命令
f : A → A f: \mathbb{A} \to \mathbb{A} f:A→A 从定义域到值域的映射 f: \mathbb{A} \to \mathbb{A}
sup ⁡ \sup sup 函数的上确界 \sup
inf ⁡ \inf inf 函数的下确界 \inf
f ∘ g f \circ g f∘g 复合函数, 先计算 g g g 再计算 f f f f \circ g
f ( x ; θ ) f(x; \theta) f(x;θ) 以 x x x 为变量 θ \theta θ 为参数的函数 f(x; \theta)
f ( x ; θ ) f(\mathbf{x}; \mathbf{\theta}) f(x;θ) 多个变量, 多个参数 f(\mathbf{x}; \mathbf{\theta})
log ⁡ x \log x logx 求对数 \log x
exp ⁡ x \exp x expx 求指数 \exp x
σ ( x ) \sigma(x) σ(x) Logistic sigmoid: 1 1 + exp ⁡ ( − x ) \frac{1}{1 + \exp(-x)} 1+exp(−x)1 \sigma(x)
ζ ( x ) \zeta(x) ζ(x) Softplus: log ⁡ ( 1 + exp ⁡ ( x ) ) \log(1 + \exp(x)) log(1+exp(x)) \zeta(x)
p ( x ) p(x) p(x) 概率密度函数 p(x)
x ∼ P x \sim P x∼P 随机变量 a a a 服从分布 P P P a \sim P
E x ∼ P f ( x ) \mathbb{E}_{x \sim P} f(x) Ex∼Pf(x) 期望值 \mathbb{E}_{x \sim P} f(x)
V a r ( f ( x ) ) \mathrm{Var}(f(x)) Var(f(x)) 方差, Latex 中用 rm 应该也行 \mathrm{Var}(f(x))
C o v ( f ( x ) , g ( x ) ) \mathrm{Cov}(f(x), g(x)) Cov(f(x),g(x)) 协方差 \mathrm{Cov}(f(x), g(x))
N ( x ; μ , σ ) \mathcal{N}(x; \mu, \sigma) N(x;μ,σ) 均值为 μ \mu μ, 方差为 σ \sigma σ 的正态分布 \mathcal{N}(x; \mu, \sigma)
d y d x \frac{\mathrm{d} y}{\mathrm{d} x} dxdy 微分, CSDN 对 x x x 和 y y y 的字体显示可能不正确, 所以后面都有 mathrm 而不是 rm \frac{\rm{d} y}{\mathrm{d} x}
∂ y ∂ x \frac{\partial y}{\partial x} ∂x∂y 偏微分 \frac{\partial y}{\partial x}
∇ x y \nabla_x y ∇xy y y y 相对于 x x x 的梯度 \nabla_x y
∫ f ( x ) d x \int f(x) \mathrm{d}x ∫f(x)dx 不定积分 \int f(x) \mathrm{d}x
∫ 0 1 f ( x ) d x \int_0^1 f(x) \mathrm{d}x ∫01f(x)dx 定积分 \int_0^1 f(x) \mathrm{d}x
∫ S f ( x ) d x \int_\mathbb{S} f(x) \mathrm{d}x ∫Sf(x)dx 指定区域 S \mathbb{S} S 的定积分 \int_\mathbb{S} f(x) \mathrm{d}x
∬ f ( x ) d x \iint f(x) \mathrm{d}x ∬f(x)dx 二重积分 \iint f(x) \mathrm{d}x
相关推荐
这个男人是小帅15 分钟前
【GAT】 代码详解 (1) 运行方法【pytorch】可运行版本
人工智能·pytorch·python·深度学习·分类
__基本操作__17 分钟前
边缘提取函数 [OPENCV--2]
人工智能·opencv·计算机视觉
Doctor老王21 分钟前
TR3:Pytorch复现Transformer
人工智能·pytorch·transformer
热爱生活的五柒21 分钟前
pytorch中数据和模型都要部署在cuda上面
人工智能·pytorch·深度学习
HyperAI超神经2 小时前
【TVM 教程】使用 Tensorize 来利用硬件内联函数
人工智能·深度学习·自然语言处理·tvm·计算机技术·编程开发·编译框架
扫地的小何尚4 小时前
NVIDIA RTX 系统上使用 llama.cpp 加速 LLM
人工智能·aigc·llama·gpu·nvidia·cuda·英伟达
埃菲尔铁塔_CV算法6 小时前
深度学习神经网络创新点方向
人工智能·深度学习·神经网络
艾思科蓝-何老师【H8053】7 小时前
【ACM出版】第四届信号处理与通信技术国际学术会议(SPCT 2024)
人工智能·信号处理·论文发表·香港中文大学
秀儿还能再秀7 小时前
机器学习——简单线性回归、逻辑回归
笔记·python·学习·机器学习
weixin_452600697 小时前
《青牛科技 GC6125:驱动芯片中的璀璨之星,点亮 IPcamera 和云台控制(替代 BU24025/ROHM)》
人工智能·科技·单片机·嵌入式硬件·新能源充电桩·智能充电枪