[机器学习-从入门到入土] 基础知识

[机器学习-从入门到入土] 基础知识

个人导航

知乎:https://www.zhihu.com/people/byzh_rc

CSDN:https://blog.csdn.net/qq_54636039

注:本文仅对所述内容做了框架性引导,具体细节可查询其余相关资料or源码

参考文章:各方资料

文章目录

中英文

中文 英文
线性回归 linear regression
欠拟合 underfit
过拟合 overfit
代价函数 cost function
正则化 Regularization
随机梯度下降SGD stochastic gradient descent
方差 variance
先验 prior
后验 posterior
--- ---
线性分类 linear classification
判别函数 discriminant function
决策面 decision surface
决策边界 decision boundary
最小二乘法 ordinary least squares
感知器 perceptron
逻辑回归 logistic regression
均方误差MSE mean-square error
交叉熵损失 cross-entropy loss
--- ---
神经网络 neural network
激活函数 activation function
前向传播 forward propagation
反向传播BP backpropagation
有限差分 finite differences
中心差分 central differences
--- ---
计算学习理论 computational learning theory
概率近似正确PAC probably approximately correct
样本复杂度 sample complexity
一致性 consistent
版本空间 version space
不可知学习 agnostic learning
VC维 VC dimension
--- ---
经验误差 empirical error
泛化误差 generalization error
留出法 hold-out
交叉验证 cross validation
自助法 bootstrap
性能 performance
混淆矩阵 confusion matrix
查准率 precision
召回率 / 查全率 recall
曲线 curve
--- ---
相关特征 relevant feature
无关特征 irrelevant feature
冗余特征 redundant feature
子集搜索 subset search
序列前向搜索SFS sequential forward selection
序列后向搜索SFS sequential backward selection
子集评价 subset evaluation
信息增益 gain
过滤式 filter
包裹式 wrapper
嵌入式 embedded
字典学习 dictionary learning
稀疏表示 sparse representation
--- ---
降维 feature reduction
主成分分析PCA principal components analysis
线性判别分析LDA linear discriminant analysis
本征维度 intrinsic dimension
概率PCA probabilistic PCA
核化PCA kernel PCA
自编码器 auto-encoder
流形学习 manifold learning
等度量特征映射isomap isometric feature mapping
局部线性嵌入LLE locally linear embedding
随机近邻嵌入SNE stochastic neighbor embedding
维度灾难 curse of dimensionality
度量学习 metric learning
--- ---
概率图模型 probabilistic graphical model
贝叶斯网络 Bayesian network
马尔科夫随机场 Markov random field
条件独立 conditional Independence
团块 clique
道德化 moralization
--- ---
图像分类 image classification
目标检测 object detection
图像分割 image segmentation
不变性 invariance
同变性 equivariance
卷积 convolution
膨胀/空洞 dilated
通道 channel
感受野 receptive field
下采样 downsampling
上采样 upsampling
归纳偏置 inductive bias
--- ---
词嵌入 word embedding
词袋模型BOW bag-of-words
生成词向量 Word2Vec
--- ---
生成式模型 generative model
判别式模型 discriminative model
自回归AR autoregression
变分自编码器VAE variational autoencoder
生成对抗网络GAN generative adversarial network
扩散模型 diffusion model

权重shape

常用符号: W j i , Θ j i W_{ji},\quad \Theta_{ji} Wji,Θji

反着写是为了方便乘法:

W j i W_{ji} Wji: (hidden, input+1) [加一是偏置]
x i x_i xi: (input+1,) [单个样本]

-> a j = ∑ i = 0 i n p u t w j i x i , i = 1... h i d d e n a_j=\sum_{i=0}^{input}w_{ji}x_i,\quad i = 1 ... hidden aj=∑i=0inputwjixi,i=1...hidden: (hidden, )

如果正着写就要转置 w T w^T wT

损失函数/误差函数/代价函数/成本函数/ J ( w ) J(w) J(w)

损失函数 (Loss):更偏向单样本误差 ,记作 E E E

误差函数(error):和损失函数的含义几乎等价,多用于回归任务的表述

代价函数 / 成本函数 (Cost):更偏向全体样本的平均 / 总误差 ,记作 J ( w ) = 1 m ∑ i = 1 m E ( i ) J(w)=\frac{1}{m}\sum_{i=1}^mE^{(i)} J(w)=m1∑i=1mE(i)

向量求导公式

∂ a x T ∂ x = ∂ a T x ∂ x = a ∂ a x T b ∂ x = b a ∂ a T x b T ∂ x = a b \frac{\partial ax^T}{\partial x}=\frac{\partial a^Tx}{\partial x} = a \\ \frac{\partial ax^Tb}{\partial x} = ba \\ \frac{\partial a^Txb^T}{\partial x} = ab ∂x∂axT=∂x∂aTx=a∂x∂axTb=ba∂x∂aTxbT=ab

矩阵求导公式

对函数 f ( w ) = ( A w ) T ( A w ) = w T A T A w f(w) = (Aw)^T (Aw) = w^T A^T A w f(w)=(Aw)T(Aw)=wTATAw:
∂ f ∂ w = 2 A T A w \frac{\partial f}{\partial w} = 2 A^T A w ∂w∂f=2ATAw

对函数 g ( w ) = b T w g(w) = b^T w g(w)=bTw:
∂ g ∂ w = b \frac{\partial g}{\partial w} = b ∂w∂g=b

相关推荐
无限大.1 天前
为什么游戏需要“加载时间“?——从硬盘读取到内存渲染
网络·人工智能·游戏
vibag1 天前
使用底层API构建图
人工智能·语言模型·langchain·大模型·langgraph
权泽谦1 天前
医疗预测项目:CNN + XGBoost 实战全流程
人工智能·神经网络·cnn
汗流浃背了吧,老弟!1 天前
Transformer-初识
人工智能·深度学习·transformer
Lkygo1 天前
Embedding 和 Reranker 模型
人工智能·embedding·vllm·sglang
竹君子1 天前
英伟达的AI芯片架构演进的三个阶段
人工智能
Chris_12191 天前
Halcon学习笔记-Day5
人工智能·笔记·python·学习·机器学习·halcon
蓝程序1 天前
Spring AI学习 程序接入大模型
java·人工智能·spring
西柚小萌新1 天前
【论文阅读】--PEACE:基于多模态大语言模型的地质图全息理解赋能框架
人工智能·语言模型·自然语言处理