概率论

张祥6422889041 小时前
人工智能·机器学习·概率论
误差理论与测量平差基础四这三个概念是测量平差中处理不同精度观测值和相对精度的核心工具,构成了完整的平差权重体系。定义:一个参考基准的方差值,用于统一量纲和比较不同观测值的精度
万行19 小时前
人工智能·python·机器学习·数学建模·概率论
机器学习&第三章注意:Logistic 回归名字带 “回归”,但它是分类模型,专门解决二分类问题(也可扩展到多分类),核心是输出样本属于正类的概率。
AI科技星1 天前
数据结构·人工智能·线性代数·算法·机器学习·概率论
光速飞行器动力学方程的第一性原理推导、验证与范式革命本文在张祥前统一场论的完备框架内,首次完成了对革命性推进概念——“加质量运动”或“质量变化推进”——的核心动力学方程 F⃗=(C⃗−V⃗)dmdt\vec{F} = (\vec{C} - \vec{V})\frac{dm}{dt}F =(C −V )dtdm 的严格数学推导与全面物理验证。该方程宣告了一种超越传统反作用推进(火箭方程)的全新范式:推进力并非源于动量交换,而是源于飞行器自身运动质量 mmm 的变化率与空间本底光速运动矢量 C⃗\vec{C}C 及其自身速度 V⃗\vec{V}V 之矢量差的乘
Niuguangshuo2 天前
算法·机器学习·概率论
EM算法详解:解密“鸡生蛋“的机器学习困局假设你有两枚外观相同的硬币,它们被设计成抛出正面的概率不同,但你既不知道每次用的是哪枚,也不知道它们各自的真实概率。可能是硬币A是70%,硬币B是30%;也可能是硬币A是80%,硬币B是20%——你对此完全一无所知。
sunfove3 天前
人工智能·机器学习·概率论
贝叶斯模型 (Bayesian Model) 的直觉与硬核原理在数据科学和机器学习领域,存在着两个长达百年的对立门派:今天我们讨论的主角——贝叶斯模型,就是一套关于“如何根据新证据来修正旧信念”的数学框架。
sunfove3 天前
概率论
上帝的骰子:概率论核心概念、分布与极限定理的直觉图解在牛顿的时代,科学家认为世界是确定的:只要知道初始状态和力学定律,就能预测未来的一切。 但在量子力学和混沌理论诞生后,我们意识到:随机性 (Randomness) 才是世界的本质。
张祥6422889044 天前
人工智能·机器学习·概率论
数理统计基础一核心理解:数学期望不是一次实验的结果,而是大量重复试验下,结果的平均趋势或理论平均值。你可以把它想象成:
Zhibang Yue4 天前
统计·概率论·数理统计
非参数统计基础1——Pearson检验当我们研究一个总体时,常常不知道它的分布类型(比如不知道是正态分布、泊松分布还是其他分布),这时候需要通过样本信息检验“总体是否服从某个预设分布”,或者“两个指标是否独立”——这类不依赖总体分布形式的检验,就是非参数假设检验。而Pearson检验是解决这两类问题最常用的非参数方法。
ballball~~5 天前
算法·概率论
正态(高斯)分布(Gaussian distribution)简介:个人学习分享,如有错误,欢迎批评指正。高斯分布(Gaussian distribution)是描述连续随机变量的概率分布,广泛用于自然科学、统计学、工程学等领域。它由德国数学家高斯(Carl Friedrich Gauss)提出,最早用于描述天文数据中的误差。高斯分布在数学上也被称为正态分布(Normal distribution),具有许多优良的统计性质,并且适用于描述许多自然现象。
AI科技星5 天前
数据结构·人工智能·经验分享·线性代数·算法·计算机视觉·概率论
引力场与磁场的几何统一:磁矢势方程的第一性原理推导、验证与诠释本文在张祥前统一场论的框架内,对核心方程——磁矢势方程 ∇⃗×A⃗=B⃗f\vec{\nabla} \times \vec{A} = \dfrac{\vec{B}}{f}∇ ×A =fB ——进行了数学推导与验证分析。该方程试图建立引力场(A⃗\vec{A}A )与磁场(B⃗\vec{B}B )之间的几何联系,将磁场解释为引力场旋度 ∇×A⃗\nabla \times \vec{A}∇×A (涡旋)的表现形式。
Niuguangshuo6 天前
概率论
高斯分布的加权和 vs. 加权混合这两个概念虽然都基于高斯分布,但代表着两种完全不同的数学操作和思维方式。简单来说,高斯分布的加权和产生的是一个新的高斯分布,而高斯分布的加权混合描述的是一个复杂的多模态分布。
Niuguangshuo6 天前
概率论
随机变量及其分布:从离散到连续,深入理解概率模型的基础在我们生活的世界中,不确定性无处不在。明日的天气、股票的涨跌、用户的点击行为——这些现象都包含着固有的随机性。概率论为我们提供了一套严谨的数学工具来描述和分析这种不确定性,而随机变量正是这套工具的核心概念。
Z_Jiang6 天前
经验分享·金融·概率论·程序员创富
金融投资 的 小游戏:海边躺平本人同意他人对我的文章引用,引用时请注明出处,谢谢.作者:蒋志强本文所涉及的所有内容不构成任何投资建议,市场有风险,投资需谨慎。
liliangcsdn8 天前
概率论
全方差公式在DDIM中的应用示例全方差公式(Law of Total Variance)是概率论中一个重要的方差分解公式,形式如下。全方差公式把随机变量 X的方差分解为条件方差的期望和条件期望的方差。
helloworld也报错?8 天前
人工智能·深度学习·机器学习·概率论
深度强化学习(1)——基础知识(名词解释,概率论基础,蒙特卡洛采样,马尔可夫决策过程)前言:当AlphaGo击败李世石的那一刻,强化学习这个原本藏在学术殿堂里的概念,第一次以震撼的姿态走进了大众视野。它所展现的“智能体通过与环境互动、从试错中学习最优策略”的核心逻辑,不仅颠覆了人们对“学习”的传统认知,更勾勒出了人工智能走向自主决策的重要路径。从游戏AI的精准操作,到机器人的自主导航,再到金融领域的智能风控、工业场景的优化调度,强化学习正以强大的泛化能力,在各个行业掀起变革浪潮。本人也是心血来潮想要对强化学习学习一二,若有错误之处,请大家指正。
liliangcsdn9 天前
算法·机器学习·概率论
全期望公式在DDIM中的应用实例全期望公式将问题分解为条件情形简化计算,在分层随机性、重复试验问题中非常有效。其核心思想是先计算条件期望作为随机变量Y的函数,再对Y 取期望。
surtr110 天前
算法·动态规划·概率论·图论
【算法自用】一些比较有趣的题目中位数常见套路,维护前缀和, a i ≥ x a_i\ge x ai≥x 设置为1 ,小于 x 设置为 -1 。若存在子数组大于等于0,则说明最大中位数一定大于等于 x 。
natide13 天前
人工智能·深度学习·算法·机器学习·自然语言处理·概率论
表示/嵌入差异-4-闵可夫斯基距离(Minkowski Distance-曼哈顿距离-欧氏距离-切比雪夫距离闵可夫斯基距离由德国数学家赫尔曼·明可夫斯基提出,用于统一刻画n维空间中两个点(向量)A⃗=(a1,a2,...,an)\vec{A}=(a_1,a_2,...,a_n)A =(a1,a2,...,an) 和 B⃗=(b1,b2,...,bn)\vec{B}=(b_1,b_2,...,b_n)B =(b1,b2,...,bn) 的距离。其数学定义为: Dp(A⃗,B⃗)=(∑i=1n∣ai−bi∣p)1p D_p(\vec{A},\vec{B}) = \left( \sum_{i=1}^n |a_i -
忧郁奔向冷的天16 天前
概率论
泊松分布与指数分布以及一道贝叶斯推断例题泊松分布是一个离散型分布,其概率质量函数写作: P(Z=k)=λke−λk!,k=0,1,2,...P(Z=k)=\frac{\lambda^k e^{-\lambda}}{k!}, k=0,1,2,...P(Z=k)=k!λke−λ,k=0,1,2,... 其中,λ>0\lambda>0λ>0为参数,kkk为非负整数
EniacCheng17 天前
人工智能·机器学习·概率论
贝叶斯定理条件概率指两个事件的发生存在一定的关系。一个事件作为先前条件下,另一个事件发生的概率。 如: 两个程序员一起编软件,软件规模有10000行。程序员甲写了6000行代码,程序员乙写了4000行。程序员甲的BUG率是千行10个BUG,也就是1%。程序员乙的BUG率是千行5个BUG,也就是0.5%。