深度学习之线性代数预备知识点

|----------------------|---------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 概念 | 定义 | 公式/案例 |
| 标量(Scalar) | 一个单独的数值,表示单一的量。 | 例如:5, 3.14, -2 |
| 向量 (Vector) | 一维数组,表示具有方向和大小的量。 | ,表示三维空间中的向量 |
| 模(Magnitude) | 向量的长度,也称为范数(通常为L2范数)。 | 向量,其模: |
| 范数 (Norm) | 向量的大小,常见范数有L1范数(绝对值之和)和L2范数(欧几里得范数,平方和的开方)。 | L1范数 |
| 单位向量 (Unit Vector) | 模为1的向量,表示纯粹的方向。 | |
| 内积 (点乘) | 两个向量相乘得到的标量,反映两个向量的相似度。 | ,例如 |
| 外积(叉乘) | 两个向量相乘得到的矩阵,表示向量之间的关系。 | ,例如, |
| 矩阵 (Matrix) | 二维数组,表示数据的多维结构,行和列的排列组合。 | ,表示是一个2*2的矩阵 |
| 矩阵转置(Transpose) | 矩阵的行列互换。 | |
| 矩阵乘法(Multiplication) | 矩阵按特定规则进行乘法运算,行向量与列向量的点积。 | |
| 乘法的性质 | 矩阵乘法满足结合律、但不满足交换律。 | 例如,但 |
| 张量 (Tensor) | 高维数组,表示多维数据的结构,扩展了标量、向量和矩阵的概念。 | 例如,一个三阶张量可以表示为,每个A矩阵 |

  • 向量的内积 :在深度学习中,内积用于衡量输入向量与权重向量的相似性。例如,在一个简单的神经元中,输入权重,其输出为,即输入与权重的内积结果。

  • 矩阵乘法 :在神经网络的全连接层中,输入向量通过权重矩阵进行矩阵乘法,从而生成输出。假设输入向量,权重矩阵,输出为y=W×x。

相关推荐
CoovallyAIHub13 分钟前
强化学习凭什么比监督学习更聪明?RL的“聪明”并非来自算法,而是因为它学会了“挑食”
深度学习·算法·计算机视觉
蓝桉_T17 分钟前
Ollama 本地跑 DeepSeek-Coder V3 保姆级教程(Java 调用示例)
人工智能
CoovallyAIHub25 分钟前
YOLO-IOD深度解析:打破实时增量目标检测的三重知识冲突
深度学习·算法·计算机视觉
风象南2 小时前
Token太贵?我用这个数据格式把上下文窗口扩大2倍
人工智能·后端
NAGNIP11 小时前
轻松搞懂全连接神经网络结构!
人工智能·算法·面试
moshuying13 小时前
别让AI焦虑,偷走你本该有的底气
前端·人工智能
董董灿是个攻城狮13 小时前
零基础带你用 AI 搞定命令行
人工智能
喝拿铁写前端15 小时前
Dify 构建 FE 工作流:前端团队可复用 AI 工作流实战
前端·人工智能
阿里云大数据AI技术16 小时前
阿里云 EMR Serverless Spark + DataWorks 技术实践:引领企业 Data+AI 一体化转型
人工智能