深度学习基础:线性代数本质4——矩阵乘法

两个矩阵相乘的意义就是复合变换

1. 复合变换

例如先进行旋转变换再进行剪切变换,这很明显是两个变换,但是从总体上看可以看作是一个复合变换,是旋转和剪切作用的总和。

和其他线性变换一样,我们也可以通过记录变换后的 i j 来实现,并用矩阵完全描述这个复合变换这一新的矩阵捕捉到了两个变换的总体效应,但它的确是一个单独的作用

两个矩阵相乘的几何意义便浮现出来了

需要注意的是,上面的矩阵相乘需要从右往左读,首先应用右边矩阵所描述的变换,然后再应用左矩阵所描述的变换。

相关推荐
云程笔记1 分钟前
002.计算机视觉与目标检测发展简史:从传统方法到深度学习
深度学习·yolo·目标检测·计算机视觉
weixin_1562415757618 分钟前
基于YOLO深度学习的动物检测与识别系统
人工智能·深度学习·yolo
叶舟29 分钟前
LYT-NET:一个超级轻量的低光照图像增强Transformer网络
人工智能·深度学习·transformer·llie·低光照图像增强
管二狗赶快去工作!1 小时前
体系结构论文(九十八):NPUEval: Optimizing NPU Kernels with LLMs and Open Source Compilers
人工智能·深度学习·自然语言处理·体系结构
LaughingZhu1 小时前
Product Hunt 每日热榜 | 2026-04-10
人工智能·经验分享·深度学习·神经网络·产品运营
superior tigre2 小时前
NumPy 基础使用方法(基础+矩阵运算+Attention)
线性代数·矩阵·numpy
nap-joker2 小时前
FT-Mamba:一种高效的表回归的新深度学习模型
人工智能·深度学习·ftmamba
m0_372257023 小时前
bert和LLM训练的时候输入输出的格式是什么有什么区别
人工智能·深度学习·bert
杨夏同学3 小时前
AI入门——如何计算神经网络的参数
人工智能·深度学习·神经网络
龙文浩_3 小时前
AI中NLP的注意力机制的计算公式解析
人工智能·pytorch·深度学习·神经网络·自然语言处理