线性代数

scx_link7 小时前
线性代数·矩阵
矩阵的总结矩阵的维度定义为:先行数,后列数。一个 m × n 的矩阵表示:直观示意记忆技巧严格来说,数学中的矩阵(Matrix)是二维的,但机器学习、深度学习中常将高维数组泛化称为"张量(Tensor)"。
闲人不梦卿10 小时前
线性代数
矩阵多项式的定义设 φ(x)=a0+a1x+⋯+amxm \varphi(x) = a_0 + a_1 x + \cdots + a_m x^m φ(x)=a0+a1x+⋯+amxm 是一个 mmm 次多项式,AAA 是一个 nnn 阶方阵,那么 φ(A)=a0E+a1A+⋯+amAm \varphi(A) = a_0 E + a_1 A + \cdots + a_m A^m φ(A)=a0E+a1A+⋯+amAm 称为 矩阵 AAA 的 mmm 次多项式,其中 EEE 是单位矩阵。
链巨人11 小时前
线性代数·机器学习·矩阵·概率论
海森矩阵(Hessian矩阵)及其应用理解多元微积分和优化理论中的核心概念确实需要一些时间,因为它们在刚接触时会显得有些抽象。不过不用担心,我们将Hessian矩阵(海森矩阵)拆解开来看,它其实就是一元函数中“二阶导数”在多元函数里的直接推广。
链巨人11 小时前
人工智能·线性代数·矩阵
通俗理解模型梯度、海森矩阵、模型参数,以及它们之间的关系一个很有意思的类比。下面图片第一行子图显示的是位置关于时间的函数关系,记为 loc = fun(time). 第二个子图表示fun的导数,也即是速度关于时间的函数;第三个子图表示加速度关于时间的函数,即fun的二次导数。
听风吹等浪起11 小时前
人工智能·深度学习·线性代数·计算机视觉·矩阵
【SwinTransformer 全维度改进方案矩阵】—— 覆盖注意力、多尺度、通道/空间增强,适配CV全场景的工业级优化库在计算机视觉(CV)领域,Swin Transformer 凭借分层窗口注意力、平移窗口机制,突破了传统CNN的空间局部性限制,在图像分类、目标检测、语义分割等任务中展现出强大的特征建模能力。然而,单一架构难以适配所有场景的细粒度需求(如小目标识别、复杂背景分割、长距离依赖建模等)。为此,我们构建了**「SwinTransformer 全维度改进方案矩阵」——涵盖14+种针对性优化方向**,从注意力机制革新、多尺度特征聚合、通道/空间增强到轻量化高效建模,为不同CV任务(分类、检测、分割、姿态估计等)提供
放下华子我只抽RuiKe512 小时前
人工智能·rnn·深度学习·神经网络·线性代数·机器学习·矩阵
文本处理与RNN:硬核实战笔记📖 导读: 这份笔记覆盖NLP实战全流程:文本预处理、文本向量化、RNN/LSTM/GRU、注意力机制。
Zero13 小时前
线性代数·机器学习
机器学习线性代数--(13)小结:从线性代数到机器学习在之前的系列中,我们从几何直觉出发,一步步构建了线性代数的核心概念。这些概念不仅是数学抽象,更是现代机器学习算法的基石。下面,我们将逐一回顾这些知识点,并揭示它们在机器学习中的具体应用。
superior tigre14 小时前
线性代数·矩阵
240 搜索二维矩阵编写一个高效的算法来搜索 m x n 矩阵 matrix 中的一个目标值 target 。该矩阵具有以下特性:
AI科技星1 天前
人工智能·线性代数·算法·机器学习·平面
基于v≡c第一性原理的大统一力方程:严格推导、全维度验证与四大基本相互作用的统一作者:AI科技星本文以狭义相对论严格成立的四维光速不变第一性原理——「宇宙中任意有质量基本粒子的四维速度模恒为真空光速ccc,无质量粒子三维传播速度模恒为ccc」(核心约束记为v≡c\boldsymbol{v\equiv c}v≡c)为唯一公理,无任何额外特设假设。通过闵氏时空下的严格正交分解、协变微分与张量运算,首次推导出形式简洁、量纲完全自洽的v≡c大统一力方程。该方程无需引入高维空间、超对称、弦理论等额外假设,即可自然导出四大基本相互作用(引力、电磁力、强核力、弱核力)的全部核心公式,实现了相互作用
Σίσυφος19001 天前
线性代数·矩阵
点+法向量 计算旋转平移矩阵已知:一个点:P = (x, y, z) 一个法向量:n = (nx, ny, nz)求:约束:这就是一个 SO(3) 构造问题
赛博云推-Twitter热门霸屏工具1 天前
线性代数·矩阵·twitter
Twitter矩阵营销怎么玩?多账号运营实战指南(2026)在当前的社交媒体营销环境中,单个账号已经很难获取大量流量。越来越多企业和团队开始使用 Twitter矩阵营销 来扩大曝光,实现规模化引流。
链巨人1 天前
线性代数·矩阵
AONT(All-Or-Nothing Transform,全或无变换)矩阵AONT Matrix(全或无变换矩阵)是密码学和编码理论中的一个重要概念。AONT 全称为 All-Or-Nothing Transform(全或无变换)。
Zero1 天前
线性代数·机器学习
机器学习线性代数--(10)基变换:在不同坐标系之间切换从几何视角理解同一个向量在不同基底下的不同“语言”在前几讲中,我们一直默认使用标准基 i ^ = [ 1 0 ] , j ^ = [ 0 1 ] \hat{i} = \begin{bmatrix}1\\0\end{bmatrix}, \hat{j} = \begin{bmatrix}0\\1\end{bmatrix} i^=[10],j^=[01] 来描述向量。但任何向量空间都有无穷多组基,同一个向量在不同基下有不同的坐标表示。基变换就是帮助我们在这多种“语言”之间进行翻译的工具。
带娃的IT创业者2 天前
线性代数·矩阵
意图识别与工具智能路由:17 维关键词矩阵如何让 LLM 精准选择 38 个工具系列文章第 26 篇 - 从"选择困难症"到"精准狙击",揭秘 Phase 6 工具扩展后的意图识别体系重构
Zero2 天前
线性代数·机器学习·矩阵
机器学习线性代数--(7)逆矩阵、列空间、秩、零空间与非方阵从几何视角理解线性变换的深层结构在前几讲中,我们学会了用矩阵描述线性变换,并用行列式测量变换对面积的缩放。现在,我们将探索一些更深刻的问题:一个变换能否被“撤销”?变换后的空间是什么样的?哪些向量被压缩到了原点?不同维度的空间之间如何变换?这些问题将引向线性代数的核心概念——逆矩阵、列空间、秩、零空间,以及非方阵。
Zero2 天前
线性代数·机器学习
机器学习线性代数--(12)抽象向量空间:超越箭头的世界从具体的几何箭头,走向普适的数学结构在之前的旅程中,我们一直把向量想象成空间中的箭头,用坐标表示,并用矩阵描述它们的变换。这种几何直觉极其强大,但它只是冰山一角。事实上,线性代数的核心思想可以推广到远比箭头更抽象的对象上——比如函数、多项式、数列,甚至音频信号。这就是抽象向量空间的概念,它让我们看到,不同领域的数学问题其实遵循着相同的代数规律。
Zero2 天前
人工智能·线性代数·机器学习
机器学习线性代数--(9)叉积在上一讲中,我们探索了点积与对偶性的深刻联系。现在,让我们把目光转向另一个重要的向量运算——叉积(也叫叉乘)。与点积输出一个标量不同,叉积输出一个向量。它有着丰富的几何意义,并且同样可以用线性变换的视角来理解,从而揭示其计算公式的由来。
Zero2 天前
人工智能·线性代数·机器学习
机器学习线性代数--(8)点积与对偶性从投影到线性变换的深刻联系在前面的讲解中,我们探索了线性变换如何改变空间。现在,我们来看一个看似简单却极其深刻的运算——点积(也叫内积)。它不仅是坐标的对应相乘再相加,更有着优美的几何解释。而3Blue1Brown视频中最精彩的部分,是揭示了点积与对偶性之间的内在联系:每一个点积运算都可以看作是一个从多维空间到一维空间的线性变换。
Zero2 天前
线性代数·机器学习
机器学习线性代数--(11)特征向量与特征值:变换的“主轴”从几何视角理解那些在变换中保持方向的特殊向量在前几讲中,我们探索了线性变换如何拉伸、旋转、压缩空间。现在,让我们提出一个深刻的问题:对于一个给定的线性变换,是否存在一些向量,在变换后仅仅被拉伸或压缩,而不改变方向? 这些特殊的向量就是特征向量,而它们被拉伸的倍数就是对应的特征值。这个概念是理解变换本质的钥匙。
阿Y加油吧2 天前
线性代数·leetcode·矩阵
力扣打卡——搜索二维矩阵、相交链表思路:直接从右边开始判断,大于往下走,小于就往左走思路:标准的长度差法,完全正确: