概率论

亲持红叶1 天前
人工智能·线性代数·机器学习·概率论
最优化方法-牛顿法泰勒级数展开 $$ \begin{aligned}f(x)&=\lim\limits_{n\rightarrow \infin}\sum\limits_{i=1}n\frac{1}{n!}f{(n)}(x_0)(x-x_0)^n\ &=f(x_0)+f’(x_0)(x-x_0)+\frac{f’'(x_0)}{2!}(x-x_0)2+\cdots+\frac{1}{n!}fn(x_0)(x-x_0)^n\ &\quad~ + O\left[(x-x_0)^n\right] /\frac{f{(n+1)(\
梦醒沉醉3 天前
概率论·信息论
机器学习的数学基础(三)——概率与信息论随机变量是可以随机地取不同值的变量。一个随机变量只是对可能的状态的描述,它必须伴随一个概率分布来指定每个状态的可能性。   随机变量可以是离散的或者连续的。离散随机变量拥有有限或者可数无限多的状态(这些状态不一定非要是整数,它们可能只是一些被命名的状态而没有数值)。连续随机变量伴随着实数值。
wyg_0311135 天前
人工智能·概率论
用大模型学大模型03-数学基础 概率论 条件概率 全概率公式 贝叶斯定理要深入浅出地理解条件概率与贝叶斯定理,可以从以下几个方面入手,结合理论知识和实例进行学习: 贝叶斯定理与智能世界的暗语 条件概率,全概率公式与贝叶斯公式的推导,理解和应用 拉普拉斯平滑
wyg_0311137 天前
人工智能·概率论
用大模型学大模型03-数学基础 概率论 随机变量 概率分布deepseek.com:什么是概率,什么是随机变量?深度学习中常用概率的分布有哪些?概率是描述事件发生的可能性的数值,范围在 0 到 1 之间:
liruiqiang058 天前
人工智能·机器学习·概率论
机器学习 - 大数定律、可能近似正确学习理论大数定律是概率论中的一个基本定理,其核心思想是:当独立重复的随机试验次数足够大时,样本的平均值会趋近于该随机变量的期望值。下面从直观和数学两个角度来说明这一概念:
zs1996_8 天前
概率论
概率论、组合数学知识点汇总离散分布二项分布:X∼B(n,p),表示n次独立试验中成功次数的概率分布。几何分布:用于描述在一系列独立的伯努利试验中,首次成功出现所需的试验次数。如果每次试验成功的概率为p,则第k次试验首次出现成功的概率为,几何分布期望为,方差为
@心都8 天前
人工智能·机器学习·概率论
机器学习数学基础:21.特征值与特征向量在现代科学与工程的众多领域中,线性代数扮演着举足轻重的角色。其中,特征值、特征向量以及相似对角化的概念和方法,不仅是线性代数理论体系的核心部分,更是解决实际问题的有力工具。无论是在物理学中描述系统的振动模式,还是在计算机科学里进行数据降维与图像处理,它们都发挥着关键作用。本教程将深入且全面地对这些内容展开讲解,旨在帮助读者透彻理解并熟练运用相关知识。
@心都8 天前
机器学习·矩阵·概率论
机器学习数学基础:22.对称矩阵的对角化设 α 1 , α 2 , ⋯   , α n \alpha_1,\alpha_2,\cdots,\alpha_n α1,α2,⋯,αn是一组线性无关向量组,将其正交化得到 β 1 , β 2 , ⋯   , β n \beta_1,\beta_2,\cdots,\beta_n β1,β2,⋯,βn的步骤如下: 1. β 1 = α 1 \beta_1\ =\alpha_1 β1 =α1。 2. β 2 = α 2 − ( α 2 , β 1 ) ( β 1 , β 1 ) β 1 \beta_2\ =\
CS创新实验室9 天前
人工智能·机器学习·概率论
《机器学习数学基础》补充资料:柯西—施瓦茨不等式以及相关证明《机器学习数学基础》 153 页,针对图 3-4-3,提出了一个问题:“点 A A A 到 W \mathbb{W} W 上的一个点的距离有无穷多个。现在,我们最关心的是其中最短的那个,怎么找?请参阅 3.6 节。”并且,在 3.6 节,使用最小二乘法,找到了点 A A A 为终点的向量在 W \mathbb{W} W 上的投影向量,那么这两个向量的距离就是“最短的那个”。
IT古董9 天前
人工智能·机器学习·概率论
【漫话机器学习系列】090.条件概率(Conditional Probability)在概率论中,条件概率(Conditional Probability)是一个非常重要的概念。它描述了某个事件在另一个事件已发生的条件下的发生概率,在统计学、机器学习、博弈论、自然语言处理等众多领域有着广泛的应用。本文将详细介绍条件概率的定义、计算方法、性质以及实际应用,并结合扑克牌抽取的例子进行说明。
青橘MATLAB学习9 天前
数学建模·概率论
模糊数学模型:基础概念1965年,美国计算机与控制专家L.A. Zadeh教授在国际期刊《Information and Control》上发表了开创性论文《Fuzzy Sets》,标志着模糊数学这一新兴学科的诞生。模糊数学的核心思想是处理现实世界中广泛存在的“模糊现象”,例如“高个子”与“矮个子”、“年轻人”与“老年人”等无法用经典数学精确描述的概念。本文将从模糊数学的基本概念出发,解析其核心理论与应用方法。
liruiqiang0510 天前
机器学习·线性回归·概率论
深入理解概率密度函数和概率的关系最近在学习和理解线性回归的最大似然估计,发现自己对概率密度函数的理解比较欠缺,导致在掌握最大似然估计的过程中,走了很多弯路。特意做了一些调研,总结了一些理论依据,加深对概率密度函数和概率的认识。
@心都11 天前
线性代数·机器学习·概率论
机器学习数学基础:18.向量组及其线性组合向量组是若干同位数列向量组成的集合。比如在平面直角坐标系中,向量组 { α ⃗ 1 = [ 1 0 ] , α ⃗ 2 = [ 0 1 ] } \{\vec{\alpha}_1 \ = \begin{bmatrix}1\\0\end{bmatrix}, \vec{\alpha}_2 \ = \begin{bmatrix}0\\1\end{bmatrix}\} {α 1 =[10],α 2 =[01]},这两个向量都是二维列向量,构成了一个简单的向量组。再如三维空间里的向量组 { β ⃗ 1 = [ 1 2
liruiqiang0511 天前
人工智能·机器学习·概率论
机器学习 - 进一步理解最大似然估计和高斯分布的关系高斯分布(也称为正态分布)描述的是随机变量在某范围内取值的概率分布情况。其概率密度函数(PDF)为:其中,μ 是均值,σ 是标准差。
凋零蓝玫瑰12 天前
线性代数·概率论
解锁几何:从古希腊到现代生活的奇幻空间密码在漫长的人类历史长河中,几何的起源犹如一颗璀璨的星辰,照亮了人类对空间和形状认知的道路。它并非一蹴而就,而是在早期人类的生产生活实践中逐渐萌芽、发展,凝聚着无数先人的智慧与经验。
golitter.12 天前
人工智能·机器学习·概率论
机器学习:朴素贝叶斯分类器贝叶斯决策论是概率框架下实施决策的基本方法,对分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。
西猫雷婶12 天前
概率论
神经网络|(九)概率论基础知识-泊松分布及python仿真在前序学习进程中,我们已经知晓二项分布是多重伯努利分布,二伯努利分布对应的是可以无限重复、结果只有两种可能的随机试验。
@心都13 天前
机器学习·矩阵·概率论
机器学习数学基础:15.分块矩阵把矩阵 A A A用若干条纵线和横线分成许多小矩阵,每个小矩阵称为 A A A的子块,形式上以子块为元素的矩阵称为分块矩阵。例如: A = ( a 1 0 0 0 a 0 0 1 0 b 1 0 1 1 b ) A\ =\begin{pmatrix}a&1&0&0\\0&a&0&0\\1&0&b&1\\0&1&1&b\end{pmatrix} A = a0101a0100b1001b ,可分块为 A = ( A 1 O E B ) A\ =\begin{pmatrix}A_1&O\\E&B\end{pma
@心都14 天前
线性代数·机器学习·概率论
机器学习数学基础:19.线性相关与线性无关想象我们有一组向量,就好比是一群有着不同“力量”和“方向”的小伙伴。给定的向量组 α ⃗ 1 , α ⃗ 2 , ⋯   , α ⃗ m \vec{\alpha}_1, \vec{\alpha}_2, \cdots, \vec{\alpha}_m α 1,α 2,⋯,α m,如果能找到不全为零的数 k 1 , k 2 , ⋯   , k m k_1, k_2, \cdots, k_m k1,k2,⋯,km,让 k 1 α ⃗ 1 + k 2 α ⃗ 2 + ⋯ + k m α ⃗ m = 0 ⃗ k_1\
西猫雷婶14 天前
概率论
神经网络|(八)概率论基础知识-二项分布及python仿真前序已经学习了古典概型、条件概率、全概率公式和贝叶斯公式,它们作为基础,解释了事件发生及其概率的对应关系,相关文章链接为: