机器学习

三块可乐两块冰1 小时前
笔记·机器学习
【第二十七周】机器学习笔记二十八概要本周对强化学习进行了初步的学习和了解,强化学习不同于于监督学习对有标签的训练数据输出期待的结果,而是用于处理决策的问题。
deephub1 小时前
人工智能·python·机器学习·标准化
为什么标准化要用均值0和方差1?为什么标准化要把均值设为0、方差设为1?先说均值。均值就是平均数,所有观测值加起来除以个数。μ是均值,n是数据点总数,xᵢ是每个数据点,所以均值就是数据的重心位置。比如均值是20,那20就是平衡点。这不是说所有点到20的距离相等而是说两边的"重量"刚好在20这个位置抵消掉。
沃达德软件2 小时前
人工智能·深度学习·神经网络·目标检测·机器学习·生成对抗网络·计算机视觉
人脸比对技术助力破案通过人脸识别和大数据技术,在大数据平台上建立人脸库(失踪人脸库、重点人口库、追逃人员库、在逃人员库、暂住人口库等)进行实时的人脸搜索比对,支持照片比照片、视频流比照片,对案件相关人员进行快速的身份确认,为破案争取宝贵时间。人脸库管理,支持新建、管理、维护人脸库信息。支持人脸照和人像照关联存储;支持人脸比对,性别、年龄属性分析,同时提取行人上下衣的颜色、款式;支持历史图片的人员搜索和人脸搜索等。 #视频分析#视频AI分析识别#人脸识别#视频图像处理#视频图像识别#视频监控#安防监控
救救孩子把2 小时前
人工智能·机器学习
61-机器学习与大模型开发数学教程-5-8 约束非线性优化一句话版:当“只能在规定范围内动”的时候(参数要落在某个集合里、概率要和为 1、范数不能超标……),就成了约束优化。工具箱里有四大派:投影/近端、惩罚/障碍、增广拉格朗日/ADMM、顺序二次规划(SQP)。选对方法,你就能又稳又快地在“围栏里”找到好解。
救救孩子把2 小时前
人工智能·线性代数·机器学习
62-机器学习与大模型开发数学教程-5-9 KKT条件详解一句话版:在约束优化里,KKT(Karush–Kuhn–Tucker)条件是“最佳停车位”的四条路标: 可行性(不违规)、对偶可行(罚款不为负)、互补松弛(罚款只对违规贴)、驻点(受力平衡)。 凸问题里,满足 KKT 就既必要又充分;非凸问题里,它是必要条件与检错工具。
明月照山海-2 小时前
机器学习
机器学习周报三十二本周延续上周的工作,上周的工作是对场景文字编辑的研究,如果将生成的场景文字图片应用到深度伪造领域,提出有效的检测方式,会是一个不错的工作,于是,本周学习了两篇关于深度伪造检测领域的论文。
AI数据皮皮侠2 小时前
大数据·人工智能·python·深度学习·机器学习
中国植被生物量分布数据集(2001-2020)D200 中国植被生物量分布数据集(2001-2020)数据简介今天我们分享的数据是中国植被生物量分布数据集,该数据以栅格数据存储,其中栅格值代表植被生物量Mg/ha,单位为米,为便于使用,我们根据中国省市县行政区划将其统计为各省市县植被生物量的平均值数据并将其转为Shp格式,方便大家研究使用。
byzh_rc2 小时前
人工智能·线性代数·机器学习
[AI数学从入门到入土] 线性代数基础知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
larance3 小时前
人工智能·机器学习·分类
机器学习分类和设计原则不同的学习思路对应假设空间中不同的建模⽅式与学习⽅法; 参数模型和⾮参数模型的区别体现的是全局普适性和局部适⽤性的区别; 数据模型和算法模型的区别体现的是可解释性和精确性的区别; ⽣成模型和判别模型的区别体现的是联合分布和条件分布的区别。
老鱼说AI3 小时前
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理
论文精读第八期:Quiet-STaR 深度剖析:如何利用并行 Attention 与 REINFORCE 唤醒大模型的“潜意识”?以前的 CoT(思维链)像是在教模型“应试”,必须有题目、有提示才肯推理。而 Quiet-STaR 的出现,标志着大模型开始学会了“像学者一样阅读”——在海量的互联网文本中,通过预测未来的文字,自发地学会了“三思而后行”。这篇博客将剥开复杂的数学外衣,通俗解读 DeepMind/Stanford 这一开创性工作:当 AI 拥有了看不见的“内心独白”,通往 AGI 的路是否缩短了一程?
YF云飞3 小时前
人工智能·机器学习
推荐系统时间分布迁移新突破目录前言正文时间维度分布迁移分析:改写推荐系统数据认知方法论:从 ELBO 推导出自监督和判别式监督联合学习框架
byzh_rc4 小时前
人工智能·机器学习·回归
[机器学习从入门到入土] 自回归滑动平均ARMA知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
Das14 小时前
人工智能·学习·机器学习
【机器学习】10_特征选择与稀疏学习特征选择是指从给定的特征集合中选出与当前任务相关的特征子集特征选择通常包含子集搜索(如何找)和子集评价(如何评)两个关键环节
Aurora@Hui4 小时前
人工智能·算法·机器学习
FactorAnalysisTool 因子分析工具因子分析的本质是“降维”与“解释”,主要用于解决以下问题:作为工具,它通常集成了因子分析的全流程操作,可能包括:
GG向前冲4 小时前
大数据·python·机器学习·ai·金融
【Python 金融量化】线性模型在AAPL股票数据的分析研究在金融量化分析领域,苹果公司(AAPL)作为全球市值最高的上市公司之一,其股票数据因完整性高、规律特征明显,成为美股分析的"标杆样本"。本文将基于Python实现AAPL股票的全流程数据分析,涵盖数据加载、清洗预处理、探索性分析、可视化挖掘、机器学习建模等核心环节,带大家从零到一掌握股票量化分析的核心逻辑与实操技巧。无论是金融数据分析新手,还是想要入门量化交易的开发者,都能通过本文获得完整的技术框架与实践经验。
(; ̄ェ ̄)。4 小时前
算法·决策树·机器学习
机器学校入门(十三)C4.5 决策树,CART决策树C4.5 是 Ross Quinlan 在 1993 年提出的,作为 ID3 算法的改进版本。相当于对信息增益进行修正,增加一个惩罚系数。
救救孩子把5 小时前
人工智能·算法·机器学习
59-机器学习与大模型开发数学教程-5-6 Adam、RMSProp、AdaGrad 等自适应优化算法一句话版:自适应优化器会为每个参数自动调步长。把训练看成在“山谷”里找低点:我们最小化 f(θ)=1n∑i=1nℓ(θ;zi)f(\theta)=\frac1n\sum_{i=1}^n \ell(\theta;z_i)f(θ)=n1∑i=1nℓ(θ;zi),令 gt=∇f(θt)g_t=\nabla f(\theta_t)gt=∇f(θt)。 自适应方法基本都是
救救孩子把5 小时前
人工智能·机器学习
58-机器学习与大模型开发数学教程-5-5 牛顿法与拟牛顿法(BFGS、L-BFGS)一句话版:牛顿法用二阶曲率(Hessian)给出“最会拐弯”的下降方向,局部二次收敛、步子少;拟牛顿法用数据驱动的低成本曲率近似(BFGS/L-BFGS),不需要显式 Hessian,却常有超线性收敛。 类比:在山谷里下山——梯度法像没有方向盘的车,牛顿法像有高精度方向盘的车,拟牛顿像学会了如何“凭历史轨迹修方向盘”。
倔强的石头1065 小时前
人工智能·机器学习
假设空间与版本空间 —— 机器学习是 “猜规律” 的过程读法建议:先把这篇当成上一节的延伸来看,遇到公式不顺时回头翻《机器学习基本术语大拆解 —— 用西瓜数据集逐个对应》对应小节;读完直接接《归纳偏好 —— 机器学习的 “择偶标准”》,会更连贯。
永远都不秃头的程序员(互关)5 小时前
算法·决策树·机器学习
【决策树深度探索(五)】智慧之眼:信息增益,如何找到最佳决策问题?在决策树的构建过程中,每当我们到达一个节点,都需要决定接下来根据哪个特征进行划分。一个好的特征划分应该能够最大程度地减少当前数据集的混乱程度,使得划分后的子数据集变得更“纯净”。