概率论

Niuguangshuo16 小时前
概率论
高斯分布的加权和 vs. 加权混合这两个概念虽然都基于高斯分布,但代表着两种完全不同的数学操作和思维方式。简单来说,高斯分布的加权和产生的是一个新的高斯分布,而高斯分布的加权混合描述的是一个复杂的多模态分布。
Niuguangshuo20 小时前
概率论
随机变量及其分布:从离散到连续,深入理解概率模型的基础在我们生活的世界中,不确定性无处不在。明日的天气、股票的涨跌、用户的点击行为——这些现象都包含着固有的随机性。概率论为我们提供了一套严谨的数学工具来描述和分析这种不确定性,而随机变量正是这套工具的核心概念。
Z_Jiang1 天前
经验分享·金融·概率论·程序员创富
金融投资 的 小游戏:海边躺平本人同意他人对我的文章引用,引用时请注明出处,谢谢.作者:蒋志强本文所涉及的所有内容不构成任何投资建议,市场有风险,投资需谨慎。
liliangcsdn3 天前
概率论
全方差公式在DDIM中的应用示例全方差公式(Law of Total Variance)是概率论中一个重要的方差分解公式,形式如下。全方差公式把随机变量 X的方差分解为条件方差的期望和条件期望的方差。
helloworld也报错?3 天前
人工智能·深度学习·机器学习·概率论
深度强化学习(1)——基础知识(名词解释,概率论基础,蒙特卡洛采样,马尔可夫决策过程)前言:当AlphaGo击败李世石的那一刻,强化学习这个原本藏在学术殿堂里的概念,第一次以震撼的姿态走进了大众视野。它所展现的“智能体通过与环境互动、从试错中学习最优策略”的核心逻辑,不仅颠覆了人们对“学习”的传统认知,更勾勒出了人工智能走向自主决策的重要路径。从游戏AI的精准操作,到机器人的自主导航,再到金融领域的智能风控、工业场景的优化调度,强化学习正以强大的泛化能力,在各个行业掀起变革浪潮。本人也是心血来潮想要对强化学习学习一二,若有错误之处,请大家指正。
liliangcsdn4 天前
算法·机器学习·概率论
全期望公式在DDIM中的应用实例全期望公式将问题分解为条件情形简化计算,在分层随机性、重复试验问题中非常有效。其核心思想是先计算条件期望作为随机变量Y的函数,再对Y 取期望。
surtr15 天前
算法·动态规划·概率论·图论
【算法自用】一些比较有趣的题目中位数常见套路,维护前缀和, a i ≥ x a_i\ge x ai≥x 设置为1 ,小于 x 设置为 -1 。若存在子数组大于等于0,则说明最大中位数一定大于等于 x 。
natide8 天前
人工智能·深度学习·算法·机器学习·自然语言处理·概率论
表示/嵌入差异-4-闵可夫斯基距离(Minkowski Distance-曼哈顿距离-欧氏距离-切比雪夫距离闵可夫斯基距离由德国数学家赫尔曼·明可夫斯基提出,用于统一刻画n维空间中两个点(向量)A⃗=(a1,a2,...,an)\vec{A}=(a_1,a_2,...,a_n)A =(a1,a2,...,an) 和 B⃗=(b1,b2,...,bn)\vec{B}=(b_1,b_2,...,b_n)B =(b1,b2,...,bn) 的距离。其数学定义为: Dp(A⃗,B⃗)=(∑i=1n∣ai−bi∣p)1p D_p(\vec{A},\vec{B}) = \left( \sum_{i=1}^n |a_i -
忧郁奔向冷的天11 天前
概率论
泊松分布与指数分布以及一道贝叶斯推断例题泊松分布是一个离散型分布,其概率质量函数写作: P(Z=k)=λke−λk!,k=0,1,2,...P(Z=k)=\frac{\lambda^k e^{-\lambda}}{k!}, k=0,1,2,...P(Z=k)=k!λke−λ,k=0,1,2,... 其中,λ>0\lambda>0λ>0为参数,kkk为非负整数
EniacCheng12 天前
人工智能·机器学习·概率论
贝叶斯定理条件概率指两个事件的发生存在一定的关系。一个事件作为先前条件下,另一个事件发生的概率。 如: 两个程序员一起编软件,软件规模有10000行。程序员甲写了6000行代码,程序员乙写了4000行。程序员甲的BUG率是千行10个BUG,也就是1%。程序员乙的BUG率是千行5个BUG,也就是0.5%。
EniacCheng12 天前
概率论·泊松分布·二项分布
二项分布和泊松分布二项分布用于求解二项随机事件进行多次独立实验,事件发生次数的概率。二项随机事件指只有两种可能的事件。 P ( x ∣ n , p ) = c n x ( p ) x ( 1 − p ) ( n − x ) P(x|n,p) = c_n^x(p)^x(1-p)^{(n-x)} P(x∣n,p)=cnx(p)x(1−p)(n−x) p 代表x发生的概率、n代表实验次数、x代表事件发生的次数。
byzh_rc13 天前
人工智能·算法·机器学习·支持向量机·概率论
[模式识别-从入门到入土] 组合分类器知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
牧歌悠悠14 天前
线性代数·数学·概率论·随机矩阵·高维概率
【Random Matrices】第一章-随机矩阵入门首先,我们来看看一个由高斯分布采样得到的6×6的矩阵:这个6×6矩阵共有6个特征值:为了更直观地理解,下图展示了所有特征值在复平面上的位置:
缘友一世16 天前
安全·密码学·概率论
现代密码学【3】之密码学形式化分析与可证明安全基础一个加密方案可由三个算法来定义: G e n Gen Gen、 E n c Enc Enc和 D e c Dec Dec,以及明文空间M( ∣ M ∣ > 1 |M|>1 ∣M∣>1)。
byzh_rc16 天前
算法·机器学习·概率论
[模式识别-从入门到入土] 拓展-EM算法知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
无水先生17 天前
概率论·统计学
随机变量在代数运算中的误差传播(2/2)前文链接:随机变量在代数运算中的误差传播(1/2)在前文中,我们讲述支配不确定性如何在不同运算中传播的数学规则,并探索量化不确定性的方法。但仅仅考虑随机变量之间相互独立的情形,然而,假如不独立,将有什么变化?本文将继续探讨相关议题。
图像生成小菜鸟17 天前
算法·机器学习·概率论
Score Based diffusion model 数学推导我们有一组来自未知分布 p data ( x ) p_{\text{data}}(x) pdata(x) 的样本 { x 1 , x 2 , … , x N } \{x_1, x_2, \dots, x_N\} {x1,x2,…,xN},想要学习一个参数化分布 p θ ( x ) p_\theta(x) pθ(x) 来近似 p data ( x ) p_{\text{data}}(x) pdata(x),并能从中生成新样本。
*星星之火*18 天前
人工智能·机器学习·概率论
【大白话 AI 答疑】 第7篇熵、交叉熵与交叉熵损失的概念梳理及计算示例在机器学习、信息论等领域,熵、交叉熵及交叉熵损失是核心基础概念,三者层层递进、紧密关联。本文将从概念本质出发,清晰界定三者的含义,剖析其内在逻辑,并通过具体计算示例帮助理解,让抽象的理论变得直观可感。
咚咚王者20 天前
人工智能·概率论
人工智能之数学基础 概率论与统计:第一章 基础概念第一章 基础概念概率论与统计是数据科学、机器学习、金融工程等领域的数学基石。本文系统介绍随机变量、常见概率分布(高斯/伯努利/多项式)、期望、方差、协方差等核心概念,并提供完整的 Python(NumPy / SciPy / Matplotlib)代码实现。
_Li.20 天前
人工智能·机器学习·概率论
机器学习-贝叶斯公式问题:用户输入了一个不在字典中的单词,我们需要去猜测:用户到底真正想输入的单词是什么?形式化:P(我们猜测他想输入的单词|他实际输入的单词)