深度学习基础:线性代数本质4——矩阵乘法

两个矩阵相乘的意义就是复合变换

1. 复合变换

例如先进行旋转变换再进行剪切变换,这很明显是两个变换,但是从总体上看可以看作是一个复合变换,是旋转和剪切作用的总和。

和其他线性变换一样,我们也可以通过记录变换后的 i j 来实现,并用矩阵完全描述这个复合变换这一新的矩阵捕捉到了两个变换的总体效应,但它的确是一个单独的作用

两个矩阵相乘的几何意义便浮现出来了

需要注意的是,上面的矩阵相乘需要从右往左读,首先应用右边矩阵所描述的变换,然后再应用左矩阵所描述的变换。

相关推荐
PPHT-H2 小时前
【人工智能笔记】第四十四节:OpenClaw封神工具 openclaw-free-openai-proxy 免费AI模型批量调用,零token费+稳到不翻车!
人工智能·深度学习·openclaw·免费openai·ai服务代理
yiyu07162 小时前
3分钟搞懂深度学习AI:实操篇:RNN
人工智能·深度学习
翱翔的苍鹰5 小时前
实际项目中使用LangChain DeepAgent的完整流程(落地版)
大数据·人工智能·深度学习·语言模型·自然语言处理·langchain
yongui478346 小时前
基于小波分析与神经网络结合的风速预测方法
人工智能·深度学习·神经网络
橘bird8 小时前
Transformer 简介
人工智能·深度学习·transformer
大鹏的NLP博客8 小时前
工业级时间序列利器之一:深入解析 TCN 及其注意力增强实现
人工智能·深度学习
sinat_2869451910 小时前
spec vs plan ai coding
人工智能·深度学习·算法·chatgpt·prompt
翱翔的苍鹰10 小时前
LangChain 中 DeepAgent 介绍、使用手册及场景化开发指南
人工智能·深度学习·语言模型·自然语言处理·langchain
阿拉斯攀登11 小时前
记忆的困境:RNN 与 LSTM 的底层逻辑
人工智能·rnn·深度学习·ai·大模型·llm·lstm
YaraMemo12 小时前
向量求导规则
人工智能·机器学习·矩阵·信号处理