概率论

张祥64228890410 小时前
人工智能·机器学习·概率论
数理统计基础一核心理解:数学期望不是一次实验的结果,而是大量重复试验下,结果的平均趋势或理论平均值。你可以把它想象成:
Zhibang Yue12 小时前
统计·概率论·数理统计
非参数统计基础1——Pearson检验当我们研究一个总体时,常常不知道它的分布类型(比如不知道是正态分布、泊松分布还是其他分布),这时候需要通过样本信息检验“总体是否服从某个预设分布”,或者“两个指标是否独立”——这类不依赖总体分布形式的检验,就是非参数假设检验。而Pearson检验是解决这两类问题最常用的非参数方法。
ballball~~2 天前
算法·概率论
正态(高斯)分布(Gaussian distribution)简介:个人学习分享,如有错误,欢迎批评指正。高斯分布(Gaussian distribution)是描述连续随机变量的概率分布,广泛用于自然科学、统计学、工程学等领域。它由德国数学家高斯(Carl Friedrich Gauss)提出,最早用于描述天文数据中的误差。高斯分布在数学上也被称为正态分布(Normal distribution),具有许多优良的统计性质,并且适用于描述许多自然现象。
AI科技星2 天前
数据结构·人工智能·经验分享·线性代数·算法·计算机视觉·概率论
引力场与磁场的几何统一:磁矢势方程的第一性原理推导、验证与诠释本文在张祥前统一场论的框架内,对核心方程——磁矢势方程 ∇⃗×A⃗=B⃗f\vec{\nabla} \times \vec{A} = \dfrac{\vec{B}}{f}∇ ×A =fB ——进行了数学推导与验证分析。该方程试图建立引力场(A⃗\vec{A}A )与磁场(B⃗\vec{B}B )之间的几何联系,将磁场解释为引力场旋度 ∇×A⃗\nabla \times \vec{A}∇×A (涡旋)的表现形式。
Niuguangshuo2 天前
概率论
高斯分布的加权和 vs. 加权混合这两个概念虽然都基于高斯分布,但代表着两种完全不同的数学操作和思维方式。简单来说,高斯分布的加权和产生的是一个新的高斯分布,而高斯分布的加权混合描述的是一个复杂的多模态分布。
Niuguangshuo3 天前
概率论
随机变量及其分布:从离散到连续,深入理解概率模型的基础在我们生活的世界中,不确定性无处不在。明日的天气、股票的涨跌、用户的点击行为——这些现象都包含着固有的随机性。概率论为我们提供了一套严谨的数学工具来描述和分析这种不确定性,而随机变量正是这套工具的核心概念。
Z_Jiang3 天前
经验分享·金融·概率论·程序员创富
金融投资 的 小游戏:海边躺平本人同意他人对我的文章引用,引用时请注明出处,谢谢.作者:蒋志强本文所涉及的所有内容不构成任何投资建议,市场有风险,投资需谨慎。
liliangcsdn4 天前
概率论
全方差公式在DDIM中的应用示例全方差公式(Law of Total Variance)是概率论中一个重要的方差分解公式,形式如下。全方差公式把随机变量 X的方差分解为条件方差的期望和条件期望的方差。
helloworld也报错?5 天前
人工智能·深度学习·机器学习·概率论
深度强化学习(1)——基础知识(名词解释,概率论基础,蒙特卡洛采样,马尔可夫决策过程)前言:当AlphaGo击败李世石的那一刻,强化学习这个原本藏在学术殿堂里的概念,第一次以震撼的姿态走进了大众视野。它所展现的“智能体通过与环境互动、从试错中学习最优策略”的核心逻辑,不仅颠覆了人们对“学习”的传统认知,更勾勒出了人工智能走向自主决策的重要路径。从游戏AI的精准操作,到机器人的自主导航,再到金融领域的智能风控、工业场景的优化调度,强化学习正以强大的泛化能力,在各个行业掀起变革浪潮。本人也是心血来潮想要对强化学习学习一二,若有错误之处,请大家指正。
liliangcsdn6 天前
算法·机器学习·概率论
全期望公式在DDIM中的应用实例全期望公式将问题分解为条件情形简化计算,在分层随机性、重复试验问题中非常有效。其核心思想是先计算条件期望作为随机变量Y的函数,再对Y 取期望。
surtr17 天前
算法·动态规划·概率论·图论
【算法自用】一些比较有趣的题目中位数常见套路,维护前缀和, a i ≥ x a_i\ge x ai≥x 设置为1 ,小于 x 设置为 -1 。若存在子数组大于等于0,则说明最大中位数一定大于等于 x 。
natide9 天前
人工智能·深度学习·算法·机器学习·自然语言处理·概率论
表示/嵌入差异-4-闵可夫斯基距离(Minkowski Distance-曼哈顿距离-欧氏距离-切比雪夫距离闵可夫斯基距离由德国数学家赫尔曼·明可夫斯基提出,用于统一刻画n维空间中两个点(向量)A⃗=(a1,a2,...,an)\vec{A}=(a_1,a_2,...,a_n)A =(a1,a2,...,an) 和 B⃗=(b1,b2,...,bn)\vec{B}=(b_1,b_2,...,b_n)B =(b1,b2,...,bn) 的距离。其数学定义为: Dp(A⃗,B⃗)=(∑i=1n∣ai−bi∣p)1p D_p(\vec{A},\vec{B}) = \left( \sum_{i=1}^n |a_i -
忧郁奔向冷的天12 天前
概率论
泊松分布与指数分布以及一道贝叶斯推断例题泊松分布是一个离散型分布,其概率质量函数写作: P(Z=k)=λke−λk!,k=0,1,2,...P(Z=k)=\frac{\lambda^k e^{-\lambda}}{k!}, k=0,1,2,...P(Z=k)=k!λke−λ,k=0,1,2,... 其中,λ>0\lambda>0λ>0为参数,kkk为非负整数
EniacCheng14 天前
人工智能·机器学习·概率论
贝叶斯定理条件概率指两个事件的发生存在一定的关系。一个事件作为先前条件下,另一个事件发生的概率。 如: 两个程序员一起编软件,软件规模有10000行。程序员甲写了6000行代码,程序员乙写了4000行。程序员甲的BUG率是千行10个BUG,也就是1%。程序员乙的BUG率是千行5个BUG,也就是0.5%。
EniacCheng14 天前
概率论·泊松分布·二项分布
二项分布和泊松分布二项分布用于求解二项随机事件进行多次独立实验,事件发生次数的概率。二项随机事件指只有两种可能的事件。 P ( x ∣ n , p ) = c n x ( p ) x ( 1 − p ) ( n − x ) P(x|n,p) = c_n^x(p)^x(1-p)^{(n-x)} P(x∣n,p)=cnx(p)x(1−p)(n−x) p 代表x发生的概率、n代表实验次数、x代表事件发生的次数。
byzh_rc15 天前
人工智能·算法·机器学习·支持向量机·概率论
[模式识别-从入门到入土] 组合分类器知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
牧歌悠悠16 天前
线性代数·数学·概率论·随机矩阵·高维概率
【Random Matrices】第一章-随机矩阵入门首先,我们来看看一个由高斯分布采样得到的6×6的矩阵:这个6×6矩阵共有6个特征值:为了更直观地理解,下图展示了所有特征值在复平面上的位置:
缘友一世18 天前
安全·密码学·概率论
现代密码学【3】之密码学形式化分析与可证明安全基础一个加密方案可由三个算法来定义: G e n Gen Gen、 E n c Enc Enc和 D e c Dec Dec,以及明文空间M( ∣ M ∣ > 1 |M|>1 ∣M∣>1)。
byzh_rc18 天前
算法·机器学习·概率论
[模式识别-从入门到入土] 拓展-EM算法知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
无水先生19 天前
概率论·统计学
随机变量在代数运算中的误差传播(2/2)前文链接:随机变量在代数运算中的误差传播(1/2)在前文中,我们讲述支配不确定性如何在不同运算中传播的数学规则,并探索量化不确定性的方法。但仅仅考虑随机变量之间相互独立的情形,然而,假如不独立,将有什么变化?本文将继续探讨相关议题。