概率论

jz_ddk1 天前
开发语言·python·数学·概率论·信号分析
[数学基础] 瑞利分布:数学原理、物理意义及Python实验瑞利分布(Rayleigh Distribution)是一种重要的连续概率分布,最初由英国物理学家瑞利勋爵(Lord Rayleigh)在研究声波理论时提出。与正态分布不同,瑞利分布专门描述非负随机变量的分布规律,在信号处理、通信工程、物理测量等领域有着广泛应用。
点云SLAM3 天前
大数据·深度学习·数据分析·概率论·数学原理·概论率
方差的迭代计算公式给定一组数据 x1,x2,…,xnx_1, x_2, \dots, x_nx1,x2,…,xn,其 均值 和 方差 定义如下:
phoenix@Capricornus3 天前
线性代数·机器学习·概率论
多项分布 (Multinomial Distribution)多项分布是统计学中一个非常重要的离散概率分布,它是二项分布的推广。二项分布描述的是在 n 次独立试验 中,一个事件(例如“成功”)发生次数的概率分布。每次试验只有两种可能的结果:成功 或 失败。
蒙奇D索大4 天前
笔记·学习·考研·概率论·改行学it
【11408学习记录】考研数学核心考点精讲:二维随机变量(离散与连续)全面解析称: p i j = P { X = x i , Y = y j } , i , j = 1 , 2 , ⋯ p_{ij} = P\{X = x_i, Y = y_j\}, i, j = 1, 2, \cdots pij=P{X=xi,Y=yj},i,j=1,2,⋯ 为 ( X , Y ) (X, Y) (X,Y) 的分布律或随机变量 X X X 和 Y Y Y 的联合分布律,记为 ( X , Y ) ∼ p i j (X, Y) \sim p_{ij} (X,Y)∼pij .
luoganttcc7 天前
概率论
柯尔莫哥洛夫对概率论的公理化体系有哪些贡献?
望十五江洋8 天前
线性代数·机器学习·概率论
泊松分布的参数可加性波松分布的参数可加性,若 X ∼ P ( λ 1 ) X \sim P(\lambda_1) X∼P(λ1) 。 Y ∼ P ( λ 2 ) Y \sim P(\lambda_2) Y∼P(λ2) 则, Z = X + Y , Z ∼ P ( λ 1 + λ 2 ) Z = X + Y, Z \sim P(\lambda_1 + \lambda_2) Z=X+Y,Z∼P(λ1+λ2)。对这个的等式进行证明;
lybugproducer8 天前
人工智能·深度学习·概率论
深度学习专题:模型训练的数据并行(三)传统的 SGD 优化器第 t+1 轮参数更新公式为: wt+1=wt−lr⋅gt+1 w_{t+1} = w_t - lr \cdot g_{t+1} wt+1=wt−lr⋅gt+1 其中 wtw_twt 为第 t 轮参数,lrlrlr 为学习率(不变的定值),gtg_tgt 为第 t 轮参数的梯度。
Small___ming10 天前
人工智能·机器学习·概率论
【人工智能数学基础】多元高斯分布多元高斯分布(Multivariate Gaussian Distribution)是一元高斯分布在多维空间的自然推广。它描述的不是一个单一的随机变量,而是一组随机变量(一个随机向量)的联合分布,并且这组变量的任何线性组合都服从一元高斯分布。
RE-190111 天前
大数据·数学·概率论·统计学·数理统计·知识笔记·深入浅出
《深入浅出统计学》学习笔记(二)这篇博客是我在学习《深入浅出统计学》这本书时整理的个人笔记。《深入浅出统计学》作为一本经典的统计学入门书籍,内容由浅入深、案例丰富,全书共 15 章。考虑到知识点的连贯性和阅读体验,我计划将整本书的学习笔记分为 3 篇在 CSDN 上分享,每篇聚焦 5 个章节的内容,本篇便是系列笔记的第二篇,涵盖书中的第 6章到第 10 章。
Small___ming13 天前
人工智能·概率论
【人工智能数学基础】什么是高斯分布/正态分布?正态分布是概率论与统计学中最重要的连续概率分布。它描述了一个大量独立、随机变量之和的分布会趋近于的分布形态。因其曲线呈钟形,故又常被称为钟形曲线。
Small___ming14 天前
人工智能·概率论
【人工智能数学基础】如何理解方差与协方差?方差衡量的是一个随机变量或数据集与其平均值的偏离程度。它描述了数据的"波动性"或"分散程度"。对于随机变量X,其方差定义为: Var ( X ) = E [ ( X − E [ X ] ) 2 ] \text{Var}(X) = E[(X - E[X])^2] Var(X)=E[(X−E[X])2] 其中 E [ X ] E[X] E[X]是 X X X的期望值(均值)。
月疯16 天前
算法·机器学习·概率论
样本熵和泊松指数的计算流程!!!泊松指数通常指方差与均值的比率,用于衡量数据是否符合泊松分布(泊松分布的方差与均值相等,比率为1)。计算步骤:
zyq~16 天前
笔记·概率论
【课堂笔记】概率论-3我们给出一类概率分布的通用表达式: f ( x ; θ ) = h ( x ) exp ⁡ {   < T ( x ) , θ > − b ( θ )   } f(x; \theta) = h(x)\exp\set{\left<T(x), \theta\right> - b(\theta)} f(x;θ)=h(x)exp{⟨T(x),θ⟩−b(θ)}
RE-190116 天前
大数据·数学·概率论·统计学·数理统计·知识笔记·深入浅出
《深入浅出统计学》学习笔记(一)这篇博客是我在学习《深入浅出统计学》这本书时整理的个人笔记。《深入浅出统计学》作为一本经典的统计学入门书籍,内容由浅入深、案例丰富,全书共 15 章。考虑到知识点的连贯性和阅读体验,我计划将整本书的学习笔记分为 3 篇在 CSDN 上分享,每篇聚焦 5 个章节的内容,本篇便是系列笔记的第一篇,涵盖书中的第 1 章到第 5 章。
phoenix@Capricornus17 天前
人工智能·机器学习·概率论
样本与样本值很多ML或PR的刊物中不区分这个概念。区分:严谨但繁琐,不区分:不严谨,有时候产生混淆。定义 设XXX是具有分布函数FFF的随机变量,若X1,X2,⋯ ,XnX_1, X_2, \cdots, X_nX1,X2,⋯,Xn是具有同一分布函数FFF的、相互独立的随机变量,则称X1,X2,⋯ ,XnX_1, X_2, \cdots, X_nX1,X2,⋯,Xn为从分布函数FFF(或总体FFF、或总体XXX)得到的容量为nnn的简单随机样本,简称样本,它们的观察值x1,x2,⋯ ,xnx_1, x_2, \cdo
qq_ddddd19 天前
人工智能·神经网络·线性代数·机器学习·概率论·1024程序员节
对于随机变量x1, …, xn,其和的范数平方的期望不超过n倍各随机变量范数平方的期望之和一、知识联系:随机变量和的范数平方的期望不会超过单个随机变量范数平方期望之和的n倍,是对“和的平方不超过平方和的n倍”这一初等不等式在随机变量情形下的推广。
无风听海21 天前
人工智能·神经网络·概率论
神经网络之样本方差的无偏估计设 (X1,X2,…,Xn)( X_1, X_2, \dots, X_n )(X1,X2,…,Xn) 是从总体中独立随机抽取的 ( n ) 个样本,满足:
我要学习别拦我~22 天前
经验分享·概率论
挑战概率直觉:蒙提霍尔问题的解密与应用蒙提霍尔问题(Monty Hall Problem)是概率论中一个经典的难题,挑战了我们对概率的直觉理解。即使很多人参与过这个问题的讨论或实验,依然容易落入常见的“概率陷阱”。在这篇文章中,我将为大家深入剖析蒙提霍尔问题的核心,并通过一些通俗易懂的方式帮助大家理解这个概率上的反直觉现象。
一条星星鱼22 天前
人工智能·深度学习·算法·概率论·归一化·睡眠psg
从0到1:如何用统计学“看透”不同睡眠PSG数据集的差异(域偏差分析实战)你可能正在处理来自不同医院、不同设备或不同人群的睡眠多导睡眠图(PSG)数据集(比如 Sleep-EDF, SleepDG, HMC 等),并发现一个棘手的问题:在一个数据集上训练得很好的模型,换到另一个数据集上效果就一落千丈。
无风听海22 天前
神经网络·机器学习·概率论
神经网络之从自由度角度理解方差的无偏估计我们现在从“自由度”的角度,深入解释为什么样本方差要除以 (n−1)( n - 1 )(n−1) 才能成为无偏估计(unbiased estimator),而不是 (n)( n )(n)。