概率论

natide4 小时前
人工智能·深度学习·算法·机器学习·自然语言处理·概率论
表示/嵌入差异-4-闵可夫斯基距离(Minkowski Distance-曼哈顿距离-欧氏距离-切比雪夫距离闵可夫斯基距离由德国数学家赫尔曼·明可夫斯基提出,用于统一刻画n维空间中两个点(向量)A⃗=(a1,a2,...,an)\vec{A}=(a_1,a_2,...,a_n)A =(a1,a2,...,an) 和 B⃗=(b1,b2,...,bn)\vec{B}=(b_1,b_2,...,b_n)B =(b1,b2,...,bn) 的距离。其数学定义为: Dp(A⃗,B⃗)=(∑i=1n∣ai−bi∣p)1p D_p(\vec{A},\vec{B}) = \left( \sum_{i=1}^n |a_i -
忧郁奔向冷的天3 天前
概率论
泊松分布与指数分布以及一道贝叶斯推断例题泊松分布是一个离散型分布,其概率质量函数写作: P(Z=k)=λke−λk!,k=0,1,2,...P(Z=k)=\frac{\lambda^k e^{-\lambda}}{k!}, k=0,1,2,...P(Z=k)=k!λke−λ,k=0,1,2,... 其中,λ>0\lambda>0λ>0为参数,kkk为非负整数
EniacCheng4 天前
人工智能·机器学习·概率论
贝叶斯定理条件概率指两个事件的发生存在一定的关系。一个事件作为先前条件下,另一个事件发生的概率。 如: 两个程序员一起编软件,软件规模有10000行。程序员甲写了6000行代码,程序员乙写了4000行。程序员甲的BUG率是千行10个BUG,也就是1%。程序员乙的BUG率是千行5个BUG,也就是0.5%。
EniacCheng5 天前
概率论·泊松分布·二项分布
二项分布和泊松分布二项分布用于求解二项随机事件进行多次独立实验,事件发生次数的概率。二项随机事件指只有两种可能的事件。 P ( x ∣ n , p ) = c n x ( p ) x ( 1 − p ) ( n − x ) P(x|n,p) = c_n^x(p)^x(1-p)^{(n-x)} P(x∣n,p)=cnx(p)x(1−p)(n−x) p 代表x发生的概率、n代表实验次数、x代表事件发生的次数。
byzh_rc5 天前
人工智能·算法·机器学习·支持向量机·概率论
[模式识别-从入门到入土] 组合分类器知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
牧歌悠悠6 天前
线性代数·数学·概率论·随机矩阵·高维概率
【Random Matrices】第一章-随机矩阵入门首先,我们来看看一个由高斯分布采样得到的6×6的矩阵:这个6×6矩阵共有6个特征值:为了更直观地理解,下图展示了所有特征值在复平面上的位置:
缘友一世8 天前
安全·密码学·概率论
现代密码学【3】之密码学形式化分析与可证明安全基础一个加密方案可由三个算法来定义: G e n Gen Gen、 E n c Enc Enc和 D e c Dec Dec,以及明文空间M( ∣ M ∣ > 1 |M|>1 ∣M∣>1)。
byzh_rc9 天前
算法·机器学习·概率论
[模式识别-从入门到入土] 拓展-EM算法知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
无水先生9 天前
概率论·统计学
随机变量在代数运算中的误差传播(2/2)前文链接:随机变量在代数运算中的误差传播(1/2)在前文中,我们讲述支配不确定性如何在不同运算中传播的数学规则,并探索量化不确定性的方法。但仅仅考虑随机变量之间相互独立的情形,然而,假如不独立,将有什么变化?本文将继续探讨相关议题。
图像生成小菜鸟10 天前
算法·机器学习·概率论
Score Based diffusion model 数学推导我们有一组来自未知分布 p data ( x ) p_{\text{data}}(x) pdata(x) 的样本 { x 1 , x 2 , … , x N } \{x_1, x_2, \dots, x_N\} {x1,x2,…,xN},想要学习一个参数化分布 p θ ( x ) p_\theta(x) pθ(x) 来近似 p data ( x ) p_{\text{data}}(x) pdata(x),并能从中生成新样本。
*星星之火*10 天前
人工智能·机器学习·概率论
【大白话 AI 答疑】 第7篇熵、交叉熵与交叉熵损失的概念梳理及计算示例在机器学习、信息论等领域,熵、交叉熵及交叉熵损失是核心基础概念,三者层层递进、紧密关联。本文将从概念本质出发,清晰界定三者的含义,剖析其内在逻辑,并通过具体计算示例帮助理解,让抽象的理论变得直观可感。
咚咚王者12 天前
人工智能·概率论
人工智能之数学基础 概率论与统计:第一章 基础概念第一章 基础概念概率论与统计是数据科学、机器学习、金融工程等领域的数学基石。本文系统介绍随机变量、常见概率分布(高斯/伯努利/多项式)、期望、方差、协方差等核心概念,并提供完整的 Python(NumPy / SciPy / Matplotlib)代码实现。
_Li.12 天前
人工智能·机器学习·概率论
机器学习-贝叶斯公式问题:用户输入了一个不在字典中的单词,我们需要去猜测:用户到底真正想输入的单词是什么?形式化:P(我们猜测他想输入的单词|他实际输入的单词)
咚咚王者12 天前
人工智能·概率论
人工智能之数学基础 概率论与统计:第二章 核心定理第二章 核心定理概率论中的三大核心定理——贝叶斯定理(Bayes’ Theorem)、大数定律(Law of Large Numbers) 和 中心极限定理(Central Limit Theorem, CLT)——构成了现代统计推断、机器学习和数据科学的理论基石。本文将深入讲解这些定理的数学含义、直观解释、应用场景,并提供完整的 Python 代码实现与可视化验证。
Y_fulture13 天前
学习·机器学习·概率论
datawhale组队学习:第一章习题解答:已知信息:各盒子中水果数量:红盒子 r:3 苹果 + 4 橙子 + 3 青柠 = 10 个水果蓝盒子 b:1 苹果 + 1 橙子 + 0 青柠 = 2 个水果
醒过来摸鱼14 天前
线性代数·概率论
空间直线方程直线上任意两点的坐标差就是该直线的方向向量,用二维空间很容易表示出来。   先看以下图:   图中AB是直线上任意两点,OA和OB则是这两点表示的的向量,OD是OA反方向等长的,所以AB两点的坐标差就相当于 O B → + O D → \overrightarrow{OB}+\overrightarrow{OD} OB +OD ,根据平行四边形法则就是 O C → \overrightarrow{OC} OC .因为 B C ‾ = O D ‾ = O A ‾ \overline{BC}=\overlin
Small___ming15 天前
人工智能·机器学习·概率论
【人工智能数学基础】标准贝叶斯公式的一般化推导:从单一条件到任意多条件标准的贝叶斯公式处理两个事件: P(A∣B)=P(B∣A)P(A)P(B) P(A|B) = \frac{P(B|A)P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)P(A)
gongfuyd15 天前
算法·机器学习·概率论
傅里叶变换、拉普拉斯变换、Z 变换的定义及关系针对绝对可积的连续时间信号 f ( t ) f(t) f(t),傅里叶变换建立了时域与频域的直接映射,核心是将信号分解为不同频率的正弦 / 余弦分量的叠加。
Jerryhut16 天前
机器学习·scikit-learn·概率论·sklearn
sklearn函数总结九— 朴素贝叶斯纯手打,代码整理中,持续更新中^-^序号延用总结八目录16、朴素贝叶斯16.1 什么是贝叶斯公式?这些符号是什么意思?
zyq~17 天前
笔记·概率论
【课堂笔记】统计设总体服从任意分布,均值为 μ \mu μ,方差为 σ 2 \sigma^2 σ2,从中抽取容量为 n n n的样本,样本均值为 X ‾ = 1 n ∑ n i = 1 X i \overline{X} = \frac{1}{n}\underset{i=1}{\overset{n}{\sum}}X_i X=n1i=1∑nXi 则有性质: