概率论

明月照山海-3 天前
人工智能·机器学习·概率论
机器学习周报十三本周学习了DDPM和unet,只是对数学原理的简单理解,因为DDPM原始论文的数学推导十分复杂,只能由易到难。
北京地铁1号线4 天前
概率论
概率统计面试题1:随机抛掷的点到圆心距离的期望半径为R的圆内随机抛一个点,求点到圆心的期望距离。在半径为R的圆内随机抛一个点,点到圆心的期望距离可以通过概率论中的积分计算得到。由于点均匀分布在圆内,距离r的概率密度函数为:
ratbag6720134 天前
概率论
概率论与数理统计专业重点学哪些知识?在当今数据驱动的时代,数学作为科学之母,正以前所未有的方式渗透进各行各业。而在数学的众多分支中,概率论与数理统计因其在数据分析、人工智能、金融建模、生物统计等领域的广泛应用,成为炙手可热的专业方向。
Yingjun Mo5 天前
人工智能·神经网络·算法·机器学习·概率论
1. 统计推断-基于神经网络与Langevin扩散的自适应潜变量建模与优化该框架之所以能具备上述特性,源于对 Langevin 采样算法与随机逼近方法的系统性分析。这两类技术在潜变量模型中的应用已在文献中得到广泛探讨,但这些工作大多忽略了 Langevin 算法的偏差。本文的创新在于将 Langevin 算法的有限样本偏差纳入优化过程的一部分(研究了 Langevin 算法在有限迭代步和有限样本条件下的偏差以及其与随机逼近方法之间的相互作用)。这一分析为现代统计与机器学习模型中常用的采样与优化技术提供了理论支撑。值得注意的是,这些结果是普遍性的,而不仅限于潜变量模型。
图先5 天前
概率论
概率论第五讲—大数定律与中心极限定理偶数年必考一个选择题,5分,准备好吧。
图先8 天前
概率论
概率论第六讲—数理统计这是概率论的最后一章,也是最重要的一章,今年必考,偶数年最后一道大题12分,小题应该不会考了。
西猫雷婶9 天前
深度学习·神经网络·学习·机器学习·线性回归·scikit-learn·概率论
scikit-learn/sklearn学习|广义线性回归损失函数的基本表达式前序学习进程中,学习了scikit-learn/sklearn学习|广义线性回归 Logistic regression的三种成本函数,这里先回过头来认识一下广义线性回归的损失函数。
xz2024102****11 天前
人工智能·算法·机器学习·概率论
最大似然估计:损失函数的底层数学原理当你第一次看到线性回归时,你是否注意到了作为参数优化关键的损失函数(均方损失),你是否能够理解它的本质和由来。其实,在我第一次接触时,我是感到有些惊讶的,然后试着去强行理解它,而没有想到它的背后其实有一个数学理论作为支撑——最大似然估计。
kingmax5421200811 天前
人工智能·机器学习·概率论
概率与数理统计公式及结论汇总基本等式吸收律差事件公式反演律(德摩根定律)对立事件概率子集概率关系加法公式条件概率定义乘法公式全概率公式
西猫雷婶12 天前
人工智能·深度学习·神经网络·机器学习·回归·scikit-learn·概率论
神经网络|(十九)概率论基础知识-伽马函数·下前序学习进程中,已经对伽马函数阶乘表达式,积分式和阶乘式等价和阶乘的积分表达式。 今天来一起梳理一下,因为这个学习过程的确翻来覆去。
西猫雷婶15 天前
人工智能·深度学习·神经网络·机器学习·概率论
神经网络|(十八)概率论基础知识-伽马函数溯源-阶乘的积分表达式前序学习进程中,已经初步学习了伽马函数入门和伽马函数溯源初步, 今天继续溯源伽马函数。在伽马函数溯源初步中,我们已经证明: 当 s s s为正整数 n n n时, ∫ 0 1 ( − l n t ) s d t = s ! \int_{0}^{1}(-lnt)^sdt=s! ∫01(−lnt)sdt=s! 积分式和阶乘式相等,阶乘式和积分式的等价形式有了雏形。 但现实中的积分式却存在一种情况,当 s ≤ − 1 s\leq-1 s≤−1时,积分 ∫ 0 1 ( − l n t ) s d t \int_{
西猫雷婶19 天前
人工智能·深度学习·神经网络·学习·机器学习·概率论
神经网络|(十六)概率论基础知识-伽马函数·中前序学习进程中,已经初步了解了伽马函数,认识到 n n n的阶乘计算可以转化为: n ! = n ! ⋅ l i m k → + ∞ k n ⋅ k ! ( n + k ) ! = l i m k → + ∞ k n ⋅ k ! ⋅ n ! ( n + k ) ! = l i m k → + ∞ k n ⋅ k ! ( n + 1 ) ( n + 2 ) . . . ( n + k ) n!=n! \cdot lim_{k\rightarrow+\infty}\frac{k^n\cdot k!}{(n+k
西西弗Sisyphus19 天前
语言模型·概率论·知识蒸馏
大模型 多轮对话flyfish多轮对话的价值在于保持上下文连贯性 理解依赖上下文的问题:比如例子中,单轮对话里 “为什么会是这种颜色?” 是孤立的,模型需要猜测 “这种颜色” 指什么(输出中模型确实询问了具体对象);而多轮对话中,模型明确知道是承接 “天空的颜色”,因此直接针对天空颜色的成因展开,回答更精准。
Jooou20 天前
机器学习·概率论·贝叶斯派
机器学习:贝叶斯派和频率派对概率的诠释有两大学派,一种是频率派另一种是贝叶斯派。后面我们对观测集采用下面记号: XN×P=(x1,x2,x3,⋅⋅⋅,xN)T,xi=(xi1,xi2,xi3,⋅⋅⋅,xip)T X_{N \times P}= (x_1,x_2,x_3,\cdot \cdot \cdot,x_N)^T, x_i =(x_{i1},x_{i2},x_{i3}, \cdot \cdot \cdot,x_{ip})^T XN×P=(x1,x2,x3,⋅⋅⋅,xN)T,xi=(xi1,xi2,xi3,⋅⋅⋅,xip)T 这
simon_skywalker23 天前
概率论
概率论基础教程第六章 随机变量的联合分布(二)当两个随机变量 $ X $ 和 $ Y $ 相互独立时,研究其和 $ X+Y $ 的分布是概率论中的一个重要问题。特别地,若 $ X $ 和 $ Y $ 是连续型随机变量,且密度函数分别为 $ f_X(x) $ 和 $ f_Y(y) $,则可以通过卷积方法求得 $ X+Y $ 的分布。
simon_skywalker24 天前
概率论
概率论基础教程第5章 连续型随机变量(三)指数随机变量是一种重要的连续型随机变量,常用于描述等待时间或寿命。概率密度如果随机变量 XXX 的密度函数为: f(x)={λe−λxif x≥00if x<0 \boxed{f(x) = \begin{cases} \lambda e^{-\lambda x} & \text{if } x \geq 0 \\ 0 & \text{if } x < 0 \end{cases}} f(x)={λe−λx0if x≥0if x<0 其中 λ>0\lambda > 0λ>0 是参数,则称 XXX 为参数为 λ\
西西弗Sisyphus25 天前
概率论·概率链式法则
知识蒸馏 Knowledge Distillation 概率链式法则(Probability Chain Rule)flyfish代码实践论文 Generalized Knowledge Distillation (GKD) On-Policy Distillation of Language Models: Learning from Self-Generated Mistakes
西猫雷婶25 天前
人工智能·神经网络·机器学习·回归·概率论
神经网络|(十二)概率论基础知识-先验/后验/似然概率基本概念前序学习进程中,对贝叶斯公式曾经有相当粗糙的回归,实际上如果我们看教科书或者网页,在讲贝叶斯公式的时候,会有几个名词反复轰炸:先验概率、后验概率、似然概率。 今天就来把它们解读一下,为以后的学习铺平道路。
海绵宝宝汉堡包25 天前
python·数据分析·概率论
数据分析专栏记录之 -基础数学与统计知识 2 概率论基础与python数据分析专栏记录之 -基础数学与统计知识专栏记录:概率论与python,是一件很有趣的事情吧!!!阿巴阿巴。。。。偷偷懒,不弄不弄,反正没人评论。。。。 如果你有历史数据(例如 N 小时内共收到 M 个电话),估计 λ 的方法很简单:
simon_skywalker25 天前
概率论
概率论基础教程第六章 随机变量的联合分布(一)联合分布函数用于多个随机变量同时出现的概率特性。设 $ X $ 和 $ Y $ 是两个随机变量,其联合累积分布函数定义为: