概率论

醒过来摸鱼8 小时前
线性代数·概率论
空间直线方程直线上任意两点的坐标差就是该直线的方向向量,用二维空间很容易表示出来。   先看以下图:   图中AB是直线上任意两点,OA和OB则是这两点表示的的向量,OD是OA反方向等长的,所以AB两点的坐标差就相当于 O B → + O D → \overrightarrow{OB}+\overrightarrow{OD} OB +OD ,根据平行四边形法则就是 O C → \overrightarrow{OC} OC .因为 B C ‾ = O D ‾ = O A ‾ \overline{BC}=\overlin
Small___ming2 天前
人工智能·机器学习·概率论
【人工智能数学基础】标准贝叶斯公式的一般化推导:从单一条件到任意多条件标准的贝叶斯公式处理两个事件: P(A∣B)=P(B∣A)P(A)P(B) P(A|B) = \frac{P(B|A)P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)P(A)
gongfuyd2 天前
算法·机器学习·概率论
傅里叶变换、拉普拉斯变换、Z 变换的定义及关系针对绝对可积的连续时间信号 f ( t ) f(t) f(t),傅里叶变换建立了时域与频域的直接映射,核心是将信号分解为不同频率的正弦 / 余弦分量的叠加。
Jerryhut3 天前
机器学习·scikit-learn·概率论·sklearn
sklearn函数总结九— 朴素贝叶斯纯手打,代码整理中,持续更新中^-^序号延用总结八目录16、朴素贝叶斯16.1 什么是贝叶斯公式?这些符号是什么意思?
zyq~3 天前
笔记·概率论
【课堂笔记】统计设总体服从任意分布,均值为 μ \mu μ,方差为 σ 2 \sigma^2 σ2,从中抽取容量为 n n n的样本,样本均值为 X ‾ = 1 n ∑ n i = 1 X i \overline{X} = \frac{1}{n}\underset{i=1}{\overset{n}{\sum}}X_i X=n1i=1∑nXi 则有性质:
CS创新实验室4 天前
统计·概率论·概率分布
概率分布基本概念的深入理解概率分布是概率论和数理统计的核心概念,它完整地描述了随机变量取值的统计规律 。概率分布本质上是随机变量取值概率的数学抽象,通过分布函数这一统一工具,可以同时描述离散型、连续型和奇异型随机变量的统计特性。本报告将系统梳理概率分布的定义与分类,深入探讨其数学表示方法,并分析关键特征参数的统计意义,为理解随机现象提供坚实的理论基础。
诸葛思颖6 天前
笔记·学习·概率论
Beta 分布学习笔记前一段时间学习了 Dirichlet 分布,知道了这个分布其实本质上就是一种分布的分布。而今天写的Beta 分布本质上也是一种分布的分布。我是参考这篇文章学习的:【统计学进阶知识(一)】深入理解Beta分布:从定义到公式推导,感觉这篇文章讲得很到位,是一篇好文。下面是我学习这篇文章后写的一个笔记,以备后面复习查看。
oscar9998 天前
概率论·参数估计
概率论与数理统计 第七章 参数估计基本思想:用样本矩代替总体矩,建立方程求解参数估计值。步骤:例题:设总体 XXX 服从参数为 λ\lambdaλ 的指数分布,概率密度函数为:
oscar9998 天前
概率论·假设检验
概率论与数理统计 第八章 假设检验假设检验是根据样本信息对总体分布或参数提出假设,并利用样本信息判断假设是否成立的统计方法。双边检验: H0:θ=θ0,H1:θ≠θ0H_0: \theta = \theta_0, \quad H_1: \theta \neq \theta_0H0:θ=θ0,H1:θ=θ0
ChoSeitaku8 天前
概率论
高数强化NO15|定积分的计算|分段函数的积分|对称区间上的积分解:∫1232x21−x2dx32−12=x=sin⁡t23−1∫π6π3sin⁡2tcos⁡t⋅cos⁡tdt=(3+1)∫π6π31−cos⁡2t2dt=(3+1)(12⋅π6−sin⁡2t4∣π6π3)=π12(3+1) \begin{aligned} &\text{解:}\frac{\int_{\frac{1}{2}}^{\frac{\sqrt{3}}{2}} \frac{x^2}{\sqrt{1-x^2}}dx}{\frac{\sqrt{3}}{2} - \frac{1}{2}} \xlonge
oscar9999 天前
概率论·大数定律
概率论与数理统计第五章 大数定律及中心极限定理定义:设 X1,X2,⋯ ,Xn,⋯X_1, X_2, \cdots, X_n, \cdotsX1,X2,⋯,Xn,⋯ 是一个随机变量序列,aaa 是一个常数。如果对于任意 ε>0\varepsilon > 0ε>0,有
杰瑞不懂代码11 天前
python·算法·机器学习·概率论
【公式推导】AMP算法比BP算法强在哪(二)在上一节中,我们讲了一个简单的线性高斯模型: y = A x + w , w ∼ N ( 0 , σ 2 I ) y = Ax + w,\quad w \sim \mathcal N(0,\sigma^2 I) y=Ax+w,w∼N(0,σ2I)
浅川.2511 天前
概率论·数理统计
概率论与数理统计:期末复习梳理∅∅∅ —— 不可能事件 ΩΩΩ —— 必然事件A∩B=AB=∅A∩B = AB = ∅A∩B=AB=∅
雪不下11 天前
人工智能·机器学习·概率论
计算机中的数学:概率(6)来介绍一下卡方。卡方是用数据来判断某些东西的相关程度的一个数值,我们将这些判断的事物称之为分类变量。注意这里是相关程度,也就意味着结果是以概率来定义的。因此可以得到卡方的一个核心思想
黎茗Dawn12 天前
概率论
DDPM-明确 [特殊字符] [特殊字符] 系数要修正并明确xt\mathbf{x}_txt系数的推导,我们通过代入具体定义和代数化简,结合αˉt=αˉt−1αt\bar{\alpha}_t = \bar{\alpha}_{t-1}\alpha_tαˉt=αˉt−1αt(累计噪声系数的乘积性质),逐步拆解如下:
Cathy Bryant12 天前
笔记·机器学习·数学建模·概率论
概率论直觉(三):边缘化这里介绍一下概率论与信息论中的一个核心工具:边缘化(marginalization)。我们遇到的是:我们注意到 log P(x_1) 只依赖于 x_1,与 x_2,…,x_n 无关。所以求和可以拆成两部分:先固定 x_1,对 x_2,…,x_n 求和,再对 x_1 求和。
TDengine (老段)12 天前
大数据·数据库·物联网·概率论·时序数据库·tdengine·涛思数据
TDengine 统计函数 VAR_SAMP 用户手册VAR_SAMP 函数用于计算数据集的样本方差(Sample Variance),是统计分析中衡量数据离散程度的重要指标。与 VARIANCE(总体方差)不同,样本方差使用 n-1 作为除数,适用于从总体中抽取的样本数据分析场景。
oscar99913 天前
概率论·数字特征
概率论与数理统计第四章 随机变量的数字特征定义:数学期望是随机变量取值的加权平均值,权重为相应的概率。离散型随机变量: 设 XXX 的分布律为 P{X=xi}=pi,i=1,2,⋯P\{X = x_i\} = p_i, i=1,2,\cdotsP{X=xi}=pi,i=1,2,⋯,若级数 ∑i=1∞xipi\sum_{i=1}^{\infty} x_i p_i∑i=1∞xipi 绝对收敛,则 E(X)=∑i=1∞xipi E(X) = \sum_{i=1}^{\infty} x_i p_i E(X)=i=1∑∞xipi
杰瑞不懂代码13 天前
python·算法·机器学习·概率论
【公式推导】AMP算法比BP算法强在哪(一)BP算法算的是一个精确的边缘概率,它做的是:因子图里面,每个节点(变量、因子)互相传消息。每个节点把邻居给的消息 相乘、求和,再发给其他邻居,最后推出来真正的边缘概率。