概率论

杰瑞不懂代码1 天前
python·算法·机器学习·概率论
【公式推导】AMP算法比BP算法强在哪(二)在上一节中,我们讲了一个简单的线性高斯模型: y = A x + w , w ∼ N ( 0 , σ 2 I ) y = Ax + w,\quad w \sim \mathcal N(0,\sigma^2 I) y=Ax+w,w∼N(0,σ2I)
浅川.251 天前
概率论·数理统计
概率论与数理统计:期末复习梳理∅∅∅ —— 不可能事件 ΩΩΩ —— 必然事件A∩B=AB=∅A∩B = AB = ∅A∩B=AB=∅
雪不下2 天前
人工智能·机器学习·概率论
计算机中的数学:概率(6)来介绍一下卡方。卡方是用数据来判断某些东西的相关程度的一个数值,我们将这些判断的事物称之为分类变量。注意这里是相关程度,也就意味着结果是以概率来定义的。因此可以得到卡方的一个核心思想
黎茗Dawn2 天前
概率论
DDPM-明确 [特殊字符] [特殊字符] 系数要修正并明确xt\mathbf{x}_txt系数的推导,我们通过代入具体定义和代数化简,结合αˉt=αˉt−1αt\bar{\alpha}_t = \bar{\alpha}_{t-1}\alpha_tαˉt=αˉt−1αt(累计噪声系数的乘积性质),逐步拆解如下:
Cathy Bryant2 天前
笔记·机器学习·数学建模·概率论
概率论直觉(三):边缘化这里介绍一下概率论与信息论中的一个核心工具:边缘化(marginalization)。我们遇到的是:我们注意到 log P(x_1) 只依赖于 x_1,与 x_2,…,x_n 无关。所以求和可以拆成两部分:先固定 x_1,对 x_2,…,x_n 求和,再对 x_1 求和。
TDengine (老段)3 天前
大数据·数据库·物联网·概率论·时序数据库·tdengine·涛思数据
TDengine 统计函数 VAR_SAMP 用户手册VAR_SAMP 函数用于计算数据集的样本方差(Sample Variance),是统计分析中衡量数据离散程度的重要指标。与 VARIANCE(总体方差)不同,样本方差使用 n-1 作为除数,适用于从总体中抽取的样本数据分析场景。
oscar9993 天前
概率论·数字特征
概率论与数理统计第四章 随机变量的数字特征定义:数学期望是随机变量取值的加权平均值,权重为相应的概率。离散型随机变量: 设 XXX 的分布律为 P{X=xi}=pi,i=1,2,⋯P\{X = x_i\} = p_i, i=1,2,\cdotsP{X=xi}=pi,i=1,2,⋯,若级数 ∑i=1∞xipi\sum_{i=1}^{\infty} x_i p_i∑i=1∞xipi 绝对收敛,则 E(X)=∑i=1∞xipi E(X) = \sum_{i=1}^{\infty} x_i p_i E(X)=i=1∑∞xipi
杰瑞不懂代码3 天前
python·算法·机器学习·概率论
【公式推导】AMP算法比BP算法强在哪(一)BP算法算的是一个精确的边缘概率,它做的是:因子图里面,每个节点(变量、因子)互相传消息。每个节点把邻居给的消息 相乘、求和,再发给其他邻居,最后推出来真正的边缘概率。
oscar9994 天前
概率论
概率论与数理统计第一章 概率论的基本概念定义:满足以下三个条件的试验称为随机试验:记法:用 EEE 表示随机试验定义:随机试验 EEE 的所有可能结果组成的集合称为样本空间,记为 Ω\OmegaΩ
oscar9994 天前
概率论·随机变量及其分布
概率论与数理统计第二章 随机变量及其分布随机变量是定义在样本空间 Ω\OmegaΩ 上的实值函数,记为 X(ω)X(\omega)X(ω),ω∈Ω\omega \in \Omegaω∈Ω。
雪不下4 天前
概率论
编程中的数学:概率(6)每当别人问我们是不是大学生的时候,我们都会回答是或不是。但是当别人问我们是不是优秀大学生时,我们就不好回答了。因为大学生这个概念是确定的,只要高考被录取,然后进了大学得到了学籍就行。但是优秀大学生这个概念非常模糊,没有一个固定的指标,你不能说学分修满就是优秀大学生,那些在某个领域取得重大成果的学生肯定不同意。这时你只能委婉的说一句,我可能是你口中的优秀大学生。这背后涉及到一个叫做概率逻辑的东西,是概率的一个重要应用,下面就来简单介绍一下概率逻辑。在介绍概率逻辑之前,先要了解清经典逻辑。
Cathy Bryant5 天前
笔记·算法·数学建模·概率论·信息与通信
信息论(11):链式法则-证明先来看一个具体的例子,为了简化起见,我们取 n = 2:X_1 = 一枚均匀硬币的结果(正面或反面),X_2 = 另一枚均匀硬币的结果(正面或反面)。
大千AI助手6 天前
人工智能·机器学习·概率论·高斯分布·正态分布·概率分布·大千ai助手
正态分布:机器学习中的统计基石与高斯遗产本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
无水先生8 天前
概率论
矩母函数极其应用(1/2)在概率分布中,高阶矩的求法是相当困难的。而自然对数e的指数函数通过泰勒展开,与高阶的多项式有着天然的联系。数学家开发了矩生成函数,通过对任意分布的概率空间,首先找出矩生成函数,通过对矩生成函数求导而的到任意阶的矩。避免了复杂的积分运算。 矩生成函数的另一个意义在于,推导中心极限定律必须用到,后面我们将介绍这个有意义的证明。
培风图南以星河揽胜12 天前
java·面试·概率论
Java实习模拟面试|离散数学|概率论|金融英语|数据库实战|职业规划|期末冲刺|今日本科计科要闻速递:技术分享与学习指南作者:培风图南以星河揽胜 专栏:要闻速递 更新日期:2025年9月22日 说明:本文为本人原创学习资源导航,不含任何商业推广或广告内容,仅用于知识整理与学习参考。
雪不下15 天前
概率论
计算机中的数学:概率(3)昨天我们介绍了马尔可夫过程,今天我们介绍个与它原理相反的--贝叶斯过程。贝叶斯过程的核心思想就是用现在推出过去。任何符合贝叶斯公式的过程都可以称为贝叶斯过程。相信大家对贝叶斯公式一定很不陌生,作为一个刚不久登上高考考纲的一个新的高中数学知识点,其难度是中等偏上,不用理解,只要会用就行。
sensen_kiss16 天前
人工智能·机器学习·概率论
INT305 Machine Learning 机器学习 Pt.9 Probabilistic Models(概率模型)我们知道机器学习由模型(model)、损失函数(loss function)、优化器(optimizer)和正则化器(regularizer)组成,我们这章将专注于模型和损失函数。
AI大模型学徒16 天前
算法·机器学习·自然语言处理·nlp·概率论·马尔可夫模型
NLP基础(八)_马尔可夫模型马尔可夫模型(Markov Model)是一种数学模型,用于描述一个系统在某个时间点的状态如何随着时间转移到另一个状态,并假设未来的状态仅依赖于当前状态,而与过去状态无关,这就是著名的 马尔可夫性(Markov property)。
谅望者18 天前
数据库·笔记·python·数据分析·概率论
数据分析笔记08:Python编程基础-数据类型与变量注释是对代码的解释说明,帮助程序员和他人理解代码的功能和逻辑。重要特性:单行注释:使用#符号。快捷键:
醒过来摸鱼20 天前
线性代数·算法·概率论
9.11 傅里叶变换家族介绍为什么傅里叶变换要单独出本教材,仔细看看傅里叶变换家族就知道了。频率信号的自变量是频率 F F F,频域信号就是: X a ( F ) = ∫ − ∞ ∞ x a ( t ) e − j 2 π F t d t X_a(F)=\int_{-\infty}^{\infty}x_a(t)e^{-j2\pi Ft}\mathrm{d} t Xa(F)=∫−∞∞xa(t)e−j2πFtdt   时间模拟信号自变量就是时间: x a ( t ) = ∫ − ∞ ∞ X F ( t ) e j 2 π F t d F