概率论

加油JIAX1 天前
概率论·slam·kf
贝叶斯滤波与卡尔曼滤波「贝叶斯滤波用似然 × 先验求最大后验(MAP)」,和「卡尔曼滤波用联合高斯分布求条件后验」,不是两种不同的估计思路,而是线性高斯假设下,同一个贝叶斯推断的两种等价实现方式。
Zero2 天前
机器学习·线性回归·概率论·统计学
机器学习概率论与统计学--(13)线性回归线性回归是统计学和机器学习中最基础、最常用的预测模型。它研究一个或多个自变量(预测变量)与一个连续因变量之间的线性关系。本讲将深入探讨线性回归的模型假设、参数估计(最小二乘法与最大似然估计的等价性)、显著性检验(t检验与F检验)、模型诊断(残差分析、异常值检测)、拟合优度(R²与调整R²)以及多重共线性的识别与处理。
Zero2 天前
机器学习·概率论·统计学
机器学习概率论与统计学--(12)假设检验假设检验是统计推断的另一大支柱。它提供了一套规范的流程,用于根据样本数据对关于总体的某个陈述(假设)做出拒绝或不拒绝的决策。本讲将从基本概念出发,介绍假设检验的框架、两类错误、常见参数检验方法(t检验、方差分析)以及非参数检验(卡方检验),最后讨论p值的局限。
笨笨饿4 天前
c语言·stm32·嵌入式硬件·线性代数·机器学习·自动化·概率论
30_泰勒级数泰勒级数是一种用多项式来逼近任意光滑函数的方法。它的核心思想是:如果你知道一个函数在某一点处的各阶导数,你就可以用一个无限次的多项式来还原它(在收敛区间内)。
加油JIAX4 天前
概率论·slam·ekf·imu·卡尔曼滤波·kf·eskf
误差状态卡尔曼滤波(ESKF)推导目录1. 概率基础知识1.1 独立1.2 全概率公式1.3 条件概率公式1.4 贝叶斯公式1.5 高斯概率密度函数
⊱⋛赫宇⋚⊰5 天前
线性代数·机器学习·概率论
转专业数学一、 1、2、3、全忘 4、设f(x)f(x)f(x)满足f′′(x)+(f′(x))2=sin⁡2(x)f''(x)+(f'(x))^2=\sin^2(x)f′′(x)+(f′(x))2=sin2(x),f′(0)=0f'(0)=0f′(0)=0,则 A、000是f(x)f(x)f(x)的极大值点 B、000是f(x)f(x)f(x)的极小值点 C、000不是f(x)f(x)f(x)的极值点,(0,f(0))(0,f(0))(0,f(0))是f(x)f(x)f(x)的拐点 D、000不是f(x)f(x)
Brother Jiawei5 天前
线性代数·机器学习·概率论
概率-基础概率是一个介于 000 和 111 之间的数(包含 000 和 111),用于衡量事件发生的可能性:样本空间(Sample Space):指一个随机试验中,所有可能出现的结果的集合,通常用符 Ω\OmegaΩ(大写希腊字母欧米伽)表示。
做cv的小昊5 天前
c语言·人工智能·算法·机器学习·数学建模·r语言·概率论
【TJU】应用统计学——第四周作业(2.3 C-R不等式、2.4区间估计)1️⃣ 设 θ ^ 1 , θ ^ 2 \hat{\theta}_1, \hat{\theta}_2 θ^1,θ^2 是 θ \theta θ 的点估计,若 D ( θ ^ 1 ) ≤ D ( θ ^ 2 ) D(\hat{\theta}_1) \le D(\hat{\theta}_2) D(θ^1)≤D(θ^2), 则 θ ^ 1 \hat{\theta}_1 θ^1 比 θ ^ 2 \hat{\theta}_2 θ^2 更有效。
luoganttcc6 天前
线性代数·矩阵·概率论·欧拉公式
eiθ=cosθ+isinθ证明ex=∑n=0∞xnn!=1+x+x22!+x33!+x44!+x55!+⋯ e^x = \sum_{n=0}^{\infty}\frac{x^n}{n!} =1+x+\frac{x^2}{2!}+\frac{x^3}{3!}+\frac{x^4}{4!}+\frac{x^5}{5!}+\cdots ex=n=0∑∞n!xn=1+x+2!x2+3!x3+4!x4+5!x5+⋯
Zero6 天前
人工智能·机器学习·概率论
机器学习概率论与统计学--(11)概率论极限定理极限定理是概率论中连接抽象理论与实际应用的关键桥梁。它们解释了为什么在大量重复试验下,随机现象会呈现出稳定的规律性,以及为什么正态分布在自然界中无处不在。本讲将深入讲解两大核心定理:大数定律(以弱大数定律为主)和中心极限定理,包括其数学表述、直观理解、证明思路(切比雪夫不等式)以及实际应用中的近似计算。
iiiiii116 天前
人工智能·笔记·深度学习·数学·机器学习·概率论·指数族分布
【理论推导】指数族分布的核心性质:对数配分函数的梯度为什么是充分统计量的期望?对于指数族分布,对数配分函数 A ( η ) A(\eta) A(η) 关于自然参数 η \eta η 的梯度,恰好等于该分布下充分统计量 T ( x ) T(x) T(x) 的期望,即 ∇ A ( η ) = E x ∼ q [ T ( x ) ] \nabla A(\eta) = \mathbb{E}_{x \sim q}[T(x)] ∇A(η)=Ex∼q[T(x)] 本文给出这一性质的理论证明。
笨笨饿7 天前
c语言·开发语言·人工智能·嵌入式硬件·机器学习·编辑器·概率论
26_为什么工程上必须使用拉普拉斯变换简单来说:强制性加入拉普拉斯分析,是因为现实工程系统太"笨",只懂乘除,不懂微积分。或者说,拉普拉斯变换是把复杂的微积分方程变成简单的代数方程的魔法。
庄周迷蝴蝶8 天前
线性代数·机器学习·概率论
Extended Kalman Filter目录1、雅可比矩阵2、 图解和公式2.1 预测2.2 更新3、EKF的局限性解决线性问题的KF见:https://blog.csdn.net/weixin_39559465/article/details/159685860?spm=1001.2014.3001.5501
Zero8 天前
机器学习·概率论·参数估计·统计学
机器学习概率论与统计学--(10)统计学:参数估计②在上一讲中,我们学习了点估计的两种常用方法——矩估计和最大似然估计。然而,对于一个未知参数,往往有多种可能的估计量。那么,如何评价一个估计量的优劣?当点估计给出一个数值后,我们又如何衡量这个估计的精度?本讲将首先介绍估计量的三个核心评价准则:无偏性、有效性和一致性;然后引入区间估计,讲解置信区间的概念及其构造方法,重点包括一个正态总体均值的置信区间、两个正态总体均值差的置信区间以及比例 p p p 的置信区间。
适应规律9 天前
笔记·线性代数·概率论
强化学习笔记(赵世钰)初始化经验缓冲区 D,容量 N在线网络 Q,参数 theta(随机初始化)目标网络 Q_hat,参数 theta_minus = theta
Zero10 天前
机器学习·概率论·随机变量·统计学·方差·协方差·期望
机器学习概率论与统计学--(8)概率论:数字特征数字特征是用数值简洁地描述随机变量分布的重要属性。本讲将系统讲解期望、方差、协方差与相关系数,以及高阶矩、偏度和峰度。这些概念是概率论与统计学的核心,也是机器学习中模型评估与推断的基础。
Zero10 天前
机器学习·概率论·统计学·矩估计·最大似然估计·点估计
机器学习概率论与统计学--(9)统计学:参数估计参数估计是统计推断的核心内容。当我们面对一个总体,知道其分布类型(例如正态分布、二项分布等),但其中的某些参数(如均值、方差)未知时,就需要利用样本数据对这些参数进行估计。本讲将系统讲解点估计的基本概念,并详细介绍两种最常用的点估计方法:矩估计和最大似然估计。
R语言爱好者10 天前
概率论·高中数学
对比两点分布、二项分布和泊松分布,几何分布,超几何分布之间的区别这五种离散型概率分布是概率论与数理统计中的基础模型,它们在定义、参数、适用场景以及彼此关系上有着明显的区别。下面从多个维度进行对比,并在最后总结它们之间的关联。
bulingg12 天前
线性代数·矩阵·概率论
L1与L2正则化的差异L1正则化在损失函数中添加权重的绝对值之和: J L 1 = J + λ ∑ i = 1 n ∣ w i ∣ J_{L1} = J + \lambda \sum_{i=1}^n |w_i| JL1=J+λi=1∑n∣wi∣
我要学好英语12 天前
深度学习·概率论·贝叶斯定理
概率法则——贝叶斯定理系统不确定性源自有限的数据集大小,随着数据集增多,系统可以更好的预测新样本的类别。随机不确定性源自噪声,即使数据集无限大,也无法达到完美的准确率。从源头减小这种不确定性的方法是收集不同类型的数据。图(a)y(x1,x2)=sin(2πx1)sin(2πx2)y(x_1,x_2)=sin(2πx_1)sin(2πx_2)y(x1,x2)=sin(2πx1)sin(2πx2)的曲线图,并加入了高斯噪声;(b)100个数据点,位观测到x2x_2x2的图示,数据点看上去杂乱无章,显然噪声很大;(c)同样是100个