概率论

谅望者1 小时前
数据库·笔记·python·数据分析·概率论
数据分析笔记08:Python编程基础-数据类型与变量注释是对代码的解释说明,帮助程序员和他人理解代码的功能和逻辑。重要特性:单行注释:使用#符号。快捷键:
醒过来摸鱼2 天前
线性代数·算法·概率论
9.11 傅里叶变换家族介绍为什么傅里叶变换要单独出本教材,仔细看看傅里叶变换家族就知道了。频率信号的自变量是频率 F F F,频域信号就是: X a ( F ) = ∫ − ∞ ∞ x a ( t ) e − j 2 π F t d t X_a(F)=\int_{-\infty}^{\infty}x_a(t)e^{-j2\pi Ft}\mathrm{d} t Xa(F)=∫−∞∞xa(t)e−j2πFtdt   时间模拟信号自变量就是时间: x a ( t ) = ∫ − ∞ ∞ X F ( t ) e j 2 π F t d F
ChoSeitaku4 天前
线性代数·矩阵·概率论
线代强化NO7|秩|矩阵的秩|向量组的秩|极大线性无关组|公式矩阵A最高阶非零子式的阶数称为矩阵A的秩,记为r(A)。 零矩阵没有非零子式,我们规定它的秩为 0。设α1,α2,⋯ ,αm\alpha_1, \alpha_2, \cdots, \alpha_mα1,α2,⋯,αm为一个向量组,αi1,αi2,⋯ ,αit\alpha_{i_1}, \alpha_{i_2}, \cdots, \alpha_{i_t}αi1,αi2,⋯,αit为其中线性无关的ttt个向量,如果再加上α1,α2,⋯ ,αm\alpha_1, \alpha_2, \cdots, \alpha
Cathy Bryant4 天前
人工智能·笔记·机器学习·数学建模·概率论
信息论(五):联合熵与条件熵既然我们已经对熵有了很好的直觉理解,接下来就可以让联合概率和条件概率的概念同样自然易懂。联合概率分布(Joint Probability Distribution):如果单个随机变量 X 的分布为 p(x),那么两个变量 X 和 Y 的联合分布为 p(x,y)。
谅望者4 天前
笔记·数据分析·概率论
数据分析笔记03:概率分布理论随机变量(Random Variable)指对实验结果进行数值描述的变量,通常用符号X表示。核心理解:
醒过来摸鱼5 天前
线性代数·矩阵·概率论
多重组合问题与矩阵配额问题实际生活中,一定会遇到多重组合问题。多重组合就是把nnn个元素分配到大小为k1,k,⋯ ,kmk_1,k_,\cdots,k_mk1,k,⋯,km的集合中。符号定义如下: (nk1,k,⋯ ,km)=n!(∏i=1mki!)(n−∑i=1mki)! \binom n {k_1,k_,\cdots,k_m}=\frac{n!}{(\prod_{i=1}^mk_i!)(n-\sum_{i=1}^mk_i)!} (k1,k,⋯,kmn)=(∏i=1mki!)(n−∑i=1mki)!n!   符号用的还是组合的符
Jie Qiao6 天前
概率论
为什么“随机变量”是个函数?为什么“函数相加”会产生高斯分布?随机变量是什么?如果你翻开概率论的书,那么你大概率会看到:定义: 随机变量是定义在概率空间 ( Ω , F , P ) (\Omega,\mathcal{F} ,P) (Ω,F,P) 上的一个实函数 X : Ω → R X:\Omega\rightarrow \mathbb{R} X:Ω→R,它必须满足可测性条件:对于任意的 x ∈ R x\in \mathbb{R} x∈R,集合 ω ∈ Ω ∣ X ( ω ) ≤ x ∈ F \omega \in \Omega\mid X(\omega )\leq x
jz_ddk8 天前
开发语言·python·数学·概率论·信号分析
[数学基础] 瑞利分布:数学原理、物理意义及Python实验瑞利分布(Rayleigh Distribution)是一种重要的连续概率分布,最初由英国物理学家瑞利勋爵(Lord Rayleigh)在研究声波理论时提出。与正态分布不同,瑞利分布专门描述非负随机变量的分布规律,在信号处理、通信工程、物理测量等领域有着广泛应用。
点云SLAM10 天前
大数据·深度学习·数据分析·概率论·数学原理·概论率
方差的迭代计算公式给定一组数据 x1,x2,…,xnx_1, x_2, \dots, x_nx1,x2,…,xn,其 均值 和 方差 定义如下:
phoenix@Capricornus10 天前
线性代数·机器学习·概率论
多项分布 (Multinomial Distribution)多项分布是统计学中一个非常重要的离散概率分布,它是二项分布的推广。二项分布描述的是在 n 次独立试验 中,一个事件(例如“成功”)发生次数的概率分布。每次试验只有两种可能的结果:成功 或 失败。
蒙奇D索大11 天前
笔记·学习·考研·概率论·改行学it
【11408学习记录】考研数学核心考点精讲:二维随机变量(离散与连续)全面解析称: p i j = P { X = x i , Y = y j } , i , j = 1 , 2 , ⋯ p_{ij} = P\{X = x_i, Y = y_j\}, i, j = 1, 2, \cdots pij=P{X=xi,Y=yj},i,j=1,2,⋯ 为 ( X , Y ) (X, Y) (X,Y) 的分布律或随机变量 X X X 和 Y Y Y 的联合分布律,记为 ( X , Y ) ∼ p i j (X, Y) \sim p_{ij} (X,Y)∼pij .
luoganttcc14 天前
概率论
柯尔莫哥洛夫对概率论的公理化体系有哪些贡献?
望十五江洋15 天前
线性代数·机器学习·概率论
泊松分布的参数可加性波松分布的参数可加性,若 X ∼ P ( λ 1 ) X \sim P(\lambda_1) X∼P(λ1) 。 Y ∼ P ( λ 2 ) Y \sim P(\lambda_2) Y∼P(λ2) 则, Z = X + Y , Z ∼ P ( λ 1 + λ 2 ) Z = X + Y, Z \sim P(\lambda_1 + \lambda_2) Z=X+Y,Z∼P(λ1+λ2)。对这个的等式进行证明;
lybugproducer15 天前
人工智能·深度学习·概率论
深度学习专题:模型训练的数据并行(三)传统的 SGD 优化器第 t+1 轮参数更新公式为: wt+1=wt−lr⋅gt+1 w_{t+1} = w_t - lr \cdot g_{t+1} wt+1=wt−lr⋅gt+1 其中 wtw_twt 为第 t 轮参数,lrlrlr 为学习率(不变的定值),gtg_tgt 为第 t 轮参数的梯度。
Small___ming17 天前
人工智能·机器学习·概率论
【人工智能数学基础】多元高斯分布多元高斯分布(Multivariate Gaussian Distribution)是一元高斯分布在多维空间的自然推广。它描述的不是一个单一的随机变量,而是一组随机变量(一个随机向量)的联合分布,并且这组变量的任何线性组合都服从一元高斯分布。
RE-190118 天前
大数据·数学·概率论·统计学·数理统计·知识笔记·深入浅出
《深入浅出统计学》学习笔记(二)这篇博客是我在学习《深入浅出统计学》这本书时整理的个人笔记。《深入浅出统计学》作为一本经典的统计学入门书籍,内容由浅入深、案例丰富,全书共 15 章。考虑到知识点的连贯性和阅读体验,我计划将整本书的学习笔记分为 3 篇在 CSDN 上分享,每篇聚焦 5 个章节的内容,本篇便是系列笔记的第二篇,涵盖书中的第 6章到第 10 章。
Small___ming20 天前
人工智能·概率论
【人工智能数学基础】什么是高斯分布/正态分布?正态分布是概率论与统计学中最重要的连续概率分布。它描述了一个大量独立、随机变量之和的分布会趋近于的分布形态。因其曲线呈钟形,故又常被称为钟形曲线。
Small___ming21 天前
人工智能·概率论
【人工智能数学基础】如何理解方差与协方差?方差衡量的是一个随机变量或数据集与其平均值的偏离程度。它描述了数据的"波动性"或"分散程度"。对于随机变量X,其方差定义为: Var ( X ) = E [ ( X − E [ X ] ) 2 ] \text{Var}(X) = E[(X - E[X])^2] Var(X)=E[(X−E[X])2] 其中 E [ X ] E[X] E[X]是 X X X的期望值(均值)。
月疯23 天前
算法·机器学习·概率论
样本熵和泊松指数的计算流程!!!泊松指数通常指方差与均值的比率,用于衡量数据是否符合泊松分布(泊松分布的方差与均值相等,比率为1)。计算步骤:
zyq~23 天前
笔记·概率论
【课堂笔记】概率论-3我们给出一类概率分布的通用表达式: f ( x ; θ ) = h ( x ) exp ⁡ {   < T ( x ) , θ > − b ( θ )   } f(x; \theta) = h(x)\exp\set{\left<T(x), \theta\right> - b(\theta)} f(x;θ)=h(x)exp{⟨T(x),θ⟩−b(θ)}