深度学习之线性代数预备知识点

|----------------------|---------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 概念 | 定义 | 公式/案例 |
| 标量(Scalar) | 一个单独的数值,表示单一的量。 | 例如:5, 3.14, -2 |
| 向量 (Vector) | 一维数组,表示具有方向和大小的量。 | ,表示三维空间中的向量 |
| 模(Magnitude) | 向量的长度,也称为范数(通常为L2范数)。 | 向量,其模: |
| 范数 (Norm) | 向量的大小,常见范数有L1范数(绝对值之和)和L2范数(欧几里得范数,平方和的开方)。 | L1范数 |
| 单位向量 (Unit Vector) | 模为1的向量,表示纯粹的方向。 | |
| 内积 (点乘) | 两个向量相乘得到的标量,反映两个向量的相似度。 | ,例如 |
| 外积(叉乘) | 两个向量相乘得到的矩阵,表示向量之间的关系。 | ,例如, |
| 矩阵 (Matrix) | 二维数组,表示数据的多维结构,行和列的排列组合。 | ,表示是一个2*2的矩阵 |
| 矩阵转置(Transpose) | 矩阵的行列互换。 | |
| 矩阵乘法(Multiplication) | 矩阵按特定规则进行乘法运算,行向量与列向量的点积。 | |
| 乘法的性质 | 矩阵乘法满足结合律、但不满足交换律。 | 例如,但 |
| 张量 (Tensor) | 高维数组,表示多维数据的结构,扩展了标量、向量和矩阵的概念。 | 例如,一个三阶张量可以表示为,每个A矩阵 |

  • 向量的内积 :在深度学习中,内积用于衡量输入向量与权重向量的相似性。例如,在一个简单的神经元中,输入权重,其输出为,即输入与权重的内积结果。

  • 矩阵乘法 :在神经网络的全连接层中,输入向量通过权重矩阵进行矩阵乘法,从而生成输出。假设输入向量,权重矩阵,输出为y=W×x。

相关推荐
GAOJ_K7 分钟前
丝杆模组精度下降的预警信号
人工智能·科技·机器人·自动化·制造
lusasky8 分钟前
Claude Code 2.1.2最佳实战
人工智能
●VON8 分钟前
跨模态暗流:多模态安全攻防全景解析
人工智能·学习·安全·von
柯南小海盗12 分钟前
从“会聊天的AI”到“全能助手”:大语言模型科普
人工智能·语言模型·自然语言处理
焦耳热科技前沿15 分钟前
中科大EMA:3秒焦耳热一步合成双功能催化剂用于甲醇氧化协同高效制氢
大数据·人工智能·自动化·能源·材料工程
向量引擎小橙18 分钟前
推理革命与能耗:AI大模型应用落地的“冰山成本”与破局之路
大数据·人工智能·深度学习·集成学习
学好statistics和DS19 分钟前
卷积神经网络中的反向传播
人工智能·神经网络·cnn
ggaofeng21 分钟前
运行调试大语言模型
人工智能·语言模型·自然语言处理
rayufo33 分钟前
深度学习对三维图形点云数据分类
人工智能·深度学习·分类
scott19851244 分钟前
NVIDIA GPU内部结构:高性能矩阵乘法内核剖析
线性代数·矩阵·gpu·nvidia·cuda