概率论

微小冷5 天前
线性代数·机器人·概率论·推导·拉格朗日函数·二关节机器人·机器人控制系统的设计
二关节机器人系统模型推导本文的公式推导见于蔡自兴的《机器人学》,目的是得到刘金琨的《机器人控制系统的设计与MATLAB仿真》2.12示例中的动力学模型。
软件开发技术深度爱好者5 天前
概率论·数学广角
概率中“都发生”和“至少一个”问题的解答关键是要区分:是求多个事件都发生的概率(且)——是要求“全部满足”吗?还是求至少一个事件发生的概率(或)——“有一个满足就行”?
FF-Studio7 天前
大数据·人工智能·深度学习·机器学习·数学建模·自然语言处理·概率论
【硬核数学】3. AI如何应对不确定性?概率论为模型注入“灵魂”《从零构建机器学习、深度学习到LLM的数学认知》在前两章中,我们已经掌握了如何用向量和矩阵来优雅地表示数据(线性代数),以及如何通过梯度下降等方法让模型学习和优化(微积分)。但这些似乎都建立在一个“确定性”的世界里:数据是给定的,参数只要朝着梯度的反方向更新,就一定能变得更好。
如果你想拥有什么先让自己配得上拥有17 天前
金融·概率论
概率论中的生日问题,违背直觉?如何计算? 以及从人性金融的角度分析如何违背直觉的?生日问题指:在n个人中,至少有两人生日相同的概率超过50%时,n的最小值是多少? 直觉判断:因一年有365天,多数人会误以为需要至少100人,但实际答案是23人,这种反差源于对概率计算逻辑的误解。
云博客-资源宝18 天前
机器学习·excel·概率论
Excel函数大全资源宝整理分享:https://www.httple.netExcel函数大全可以帮助用户提高工作效率,掌握常用的Excel函数,让数据处理和分析工作更加便捷高效。
爱学习的capoo20 天前
线性代数·机器学习·概率论
【解析法与几何法在阻尼比设计】自控核心思想:通过特征方程与根轨迹条件建立代数关系,直接求解满足阻尼比要求的系统参数。例:已知开环传递函数 G ( s ) H ( s ) = K s ( s + a ) G(s)H(s) = \frac{K}{s(s+a)} G(s)H(s)=s(s+a)K,求阻尼比 ζ d \zeta_d ζd 对应的K值。
TomcatLikeYou22 天前
深度学习·机器学习·概率论
概率论中的基本定义(事件,期望,信息量,香农熵等)对于深度学习来说,概率论非常重要,时不时回顾一下的基本定义,理清思路,故做以下笔记,如有不对请指正:随机试验用于描述在相同条件下重复进行、结果具有不确定性的实验或观察过程。
phoenix@Capricornus24 天前
算法·机器学习·概率论
期望最大化(EM)算法的推导——Q函数先导:① 詹森不等式(Jensen’s Inequality) ② 一般情况下的期望最大化(EM)算法 ③ 离散隐藏变量下期望最大化(EM)算法的简化
Algo-hx25 天前
概率论
概率论的基本概念:开启不确定性世界的数学之旅“随机性不是混乱,而是被遮蔽的秩序。” —— 亨利·庞加莱 当我们抛出一枚硬币,它落下时哪面朝上?明早的公交是否会准时?股票市场明日是涨是跌?这些看似充满不确定性的现象,背后却隐藏着严谨的数学规律。概率论正是揭开这层面纱的钥匙——它用精确的数学语言描述随机现象,将不可预测转化为可计算,将混沌转化为秩序。
Algo-hx25 天前
概率论
随机变量及其分布:概率论的量化核心随机变量是概率论的伟大发明——它将抽象的随机事件转化为具体的数学对象,让我们能用微积分工具研究不确定性。这一章将带你从随机变量的定义出发,直抵分布函数的核心,掌握描述随机现象的数学语言。
小钻风33661 个月前
概率论
概率论几大分布的由来在阅读本文章前为大家推荐一篇写的十分通俗易懂的概率密度函数和累积分布函数的入门教程 概率密度函数是概率分布函数求导吗? https://www.zhihu.com/question/21911186/answer/2300063086
猿饵块1 个月前
概率论
slam--高斯分布博主解释多维高斯,一维和二维图像高斯分布(Gaussian Distribution),又称正态分布(Normal Distribution),是描述连续型随机变量分布规律的一种概率分布。
狐凄1 个月前
开发语言·python·概率论
Python实例题:Python计算概率论Python实例题题目代码实现实现原理概率分布:统计量计算:可视化功能:关键代码解析1. 概率分布计算
HappyAcmen1 个月前
笔记·概率论·学习方法
1.3 古典概型和几何概型两个条件: 1) 有限个样本点 2) 等可能性例题:设有n个人,每个人都等可能地被分配到N个房间中的任一间(n≤N), 求下列事件的概率: (1)某指定的n间房中各有一个人 (2)恰好有n间房,其中各住一个人 (3)某指定的房间中恰好有k个人 (4)当n=N 时,恰有一间房空着
程序员老周6661 个月前
人工智能·神经网络·线性代数·自然语言处理·大语言模型·概率论·数学基础
4.大语言模型预备数学知识复习一下在大语言模型中用到的矩阵和向量的运算,及概率统计和神经网络中常用概念。条件:行数列数相同的矩阵才能做矩阵加减法
pen-ai1 个月前
人工智能·机器学习·概率论
【统计方法】蒙特卡洛Monte Carlo方法是一类依赖随机采样的计算技术,广泛应用于各种难以解析求解的问题。利用随机点在单位正方形中落入单位圆的比例来估计 π \pi π。
phoenix@Capricornus1 个月前
线性代数·概率论
极大似然估计例题——正态分布的极大似然估计设总体 X ∼ N ( μ , σ 2 ) X \sim N(\mu, \sigma^2) X∼N(μ,σ2),其中 μ \mu μ 和 σ 2 \sigma^2 σ2 是未知参数,取样本观测值为 x 1 , x 2 , ⋯   , x n x_1, x_2, \cdots, x_n x1,x2,⋯,xn,求参数 μ \mu μ 和 σ 2 \sigma^2 σ2 的最大似然估计。
VU-zFaith8701 个月前
c++·算法·概率论
C++概率论算法详解:理论基础与实践应用清言神力,创作奇迹。接受福利,做篇笔记。[0] 概率论中均值、方差、标准差介绍及C++/OpenCV/Eigen的三种实现. https://blog.csdn.net/fengbingchun/article/details/73323475.
zyq~1 个月前
人工智能·笔记·算法·机器学习·概率论·lpa·半监督学习
【课堂笔记】标签传播算法Label Propagation Algorithm(LPA)标签传播算法(Label Propagation Algorithm, LPA)主要解决的是数据标注不足的实际问题。在许多现实世界的机器学习任务中,获取大量标注数据(即带有正确标签的样本)成本高昂,例如需要专家参与(如医疗影像标注)或耗费大量时间(如语音转录)。   未标注数据通常包含有关数据分布的宝贵信息,例如数据点之间的相似性或聚集模式(流形结构)。   LPA通过构建图结构,基于数据的相似性(流形假设:相似的数据点倾向于具有相同标签)将已知标签传播到未标注数据,挖掘未标注数据的潜在结构。这是一种半监
小于小于大橙子1 个月前
人工智能·算法·ai·自动驾驶·概率论·强化学习
强化学习的前世今生(五)— SAC算法书接前四篇 强化学习的前世今生(一) 强化学习的前世今生(二) 强化学习的前世今生(三)— PPO算法 强化学习的前世今生(四)— DDPG算法 本文为大家介绍SAC算法