概率论

Small___ming9 小时前
人工智能·概率论
【人工智能数学基础】如何理解方差与协方差?方差衡量的是一个随机变量或数据集与其平均值的偏离程度。它描述了数据的"波动性"或"分散程度"。对于随机变量X,其方差定义为: Var ( X ) = E [ ( X − E [ X ] ) 2 ] \text{Var}(X) = E[(X - E[X])^2] Var(X)=E[(X−E[X])2] 其中 E [ X ] E[X] E[X]是 X X X的期望值(均值)。
月疯2 天前
算法·机器学习·概率论
样本熵和泊松指数的计算流程!!!泊松指数通常指方差与均值的比率,用于衡量数据是否符合泊松分布(泊松分布的方差与均值相等,比率为1)。计算步骤:
zyq~2 天前
笔记·概率论
【课堂笔记】概率论-3我们给出一类概率分布的通用表达式: f ( x ; θ ) = h ( x ) exp ⁡ {   < T ( x ) , θ > − b ( θ )   } f(x; \theta) = h(x)\exp\set{\left<T(x), \theta\right> - b(\theta)} f(x;θ)=h(x)exp{⟨T(x),θ⟩−b(θ)}
RE-19012 天前
大数据·数学·概率论·统计学·数理统计·知识笔记·深入浅出
《深入浅出统计学》学习笔记(一)这篇博客是我在学习《深入浅出统计学》这本书时整理的个人笔记。《深入浅出统计学》作为一本经典的统计学入门书籍,内容由浅入深、案例丰富,全书共 15 章。考虑到知识点的连贯性和阅读体验,我计划将整本书的学习笔记分为 3 篇在 CSDN 上分享,每篇聚焦 5 个章节的内容,本篇便是系列笔记的第一篇,涵盖书中的第 1 章到第 5 章。
phoenix@Capricornus3 天前
人工智能·机器学习·概率论
样本与样本值很多ML或PR的刊物中不区分这个概念。区分:严谨但繁琐,不区分:不严谨,有时候产生混淆。定义 设XXX是具有分布函数FFF的随机变量,若X1,X2,⋯ ,XnX_1, X_2, \cdots, X_nX1,X2,⋯,Xn是具有同一分布函数FFF的、相互独立的随机变量,则称X1,X2,⋯ ,XnX_1, X_2, \cdots, X_nX1,X2,⋯,Xn为从分布函数FFF(或总体FFF、或总体XXX)得到的容量为nnn的简单随机样本,简称样本,它们的观察值x1,x2,⋯ ,xnx_1, x_2, \cdo
qq_ddddd5 天前
人工智能·神经网络·线性代数·机器学习·概率论·1024程序员节
对于随机变量x1, …, xn,其和的范数平方的期望不超过n倍各随机变量范数平方的期望之和一、知识联系:随机变量和的范数平方的期望不会超过单个随机变量范数平方期望之和的n倍,是对“和的平方不超过平方和的n倍”这一初等不等式在随机变量情形下的推广。
无风听海7 天前
人工智能·神经网络·概率论
神经网络之样本方差的无偏估计设 (X1,X2,…,Xn)( X_1, X_2, \dots, X_n )(X1,X2,…,Xn) 是从总体中独立随机抽取的 ( n ) 个样本,满足:
我要学习别拦我~8 天前
经验分享·概率论
挑战概率直觉:蒙提霍尔问题的解密与应用蒙提霍尔问题(Monty Hall Problem)是概率论中一个经典的难题,挑战了我们对概率的直觉理解。即使很多人参与过这个问题的讨论或实验,依然容易落入常见的“概率陷阱”。在这篇文章中,我将为大家深入剖析蒙提霍尔问题的核心,并通过一些通俗易懂的方式帮助大家理解这个概率上的反直觉现象。
一条星星鱼8 天前
人工智能·深度学习·算法·概率论·归一化·睡眠psg
从0到1:如何用统计学“看透”不同睡眠PSG数据集的差异(域偏差分析实战)你可能正在处理来自不同医院、不同设备或不同人群的睡眠多导睡眠图(PSG)数据集(比如 Sleep-EDF, SleepDG, HMC 等),并发现一个棘手的问题:在一个数据集上训练得很好的模型,换到另一个数据集上效果就一落千丈。
无风听海8 天前
神经网络·机器学习·概率论
神经网络之从自由度角度理解方差的无偏估计我们现在从“自由度”的角度,深入解释为什么样本方差要除以 (n−1)( n - 1 )(n−1) 才能成为无偏估计(unbiased estimator),而不是 (n)( n )(n)。
CLubiy9 天前
人工智能·pytorch·深度学习·概率论
【研究生随笔】PyTorch中的概率论构建一个简单的概率样例:如果换成其他采样次数的话:然后将输出的结果除以采样次数,就可以得到相应的概率。
龙俊杰的读书笔记9 天前
人工智能·机器学习·概率论·随机过程和rl
《小白学随机过程》第一章:随机过程——定义和形式 (附录1 探究随机变量)想象你抛一枚硬币一次。可能出现的结果只有两种:每一个不可再分的、确定的结果,就叫一个基本事件(或样本点)。
zyq~11 天前
笔记·概率论
【课堂笔记】概率论-1对任意事件 E E E,概率函数 P ( E ) P(E) P(E)需满足:定义为 P ( E ∣ F ) = P ( E F ) / P ( F ) P(E\mid F) = P(EF) / P(F) P(E∣F)=P(EF)/P(F),当 P ( F ) > 0 P(F) > 0 P(F)>0, 表示在事件 F F F发生的前提下,事件 E E E发生的概率
十二imin18 天前
算法·机器学习·概率论
霍夫丁不等式详解先从一个生活问题切入 —— 假设你想知道全校 1000 名学生的平均身高,但不可能量所有人,于是随机抽了 50 人(这 50 人叫 “样本”),算得样本平均身高 165cm。这时你会问:这个样本的平均身高,和全校真实的平均身高差多少?我能有多大把握说 “真实平均身高在 163~167cm 之间”?
牟同學19 天前
c++·人工智能·概率论
从赌场到AI:期望值如何用C++改变世界?我们可以把它理解为一个理论上的长期平均结果。它是衡量一个随机变量取值的“中心”或“平均值”的最重要指标。
likunyuan083024 天前
概率论
概率统计中的数学语言与术语2在概率统计中,精准的数学语言和术语是构建理论、分析数据与解决问题的基础。这些术语不仅定义了核心概念,更规范了逻辑推理的过程,避免歧义。以下从基础概念、随机变量与分布、数字特征、统计推断四大模块,系统梳理概率统计中的核心数学语言与术语,并结合定义、符号及示例帮助理解。
MoRanzhi12031 个月前
人工智能·python·机器学习·数据挖掘·数据分析·numpy·概率论
0. NumPy 系列教程:科学计算与数据分析实战在 Python 科学计算和数据分析的生态系统中,NumPy(Numerical Python) 扮演着基础而关键的角色。它提供了高效的多维数组对象,以及丰富的数值计算函数库。本系列教程共 12 篇,系统讲解了 NumPy 的基础安装、数组操作、数学函数、统计函数、线性代数、广播机制、高效数据处理与图像处理等内容。
A尘埃1 个月前
概率论
概率论+贝叶斯定理+似然函数和极大似然估计概率计算均匀分布 正态分布贝叶斯定理似然函数
likunyuan08301 个月前
人工智能·机器学习·概率论
概率统计中的数学语言与术语1概率统计里有一套非常专门的数学语言和术语,如果你是初学者,很容易被符号和定义绕晕。按常见分类整理一下,方便理解和记忆:
2401_841495641 个月前
人工智能·python·数学·算法·机器学习·概率论·朴素贝叶斯法
【机器学习】朴素贝叶斯法目录一、引言二、朴素贝叶斯法的学习与分类(一) 基本方法(二) 后验概率最大化的含义三、朴素贝叶斯法的参数估计