机器学习

smile_Iris24 分钟前
python·机器学习
Day 28 元组和OS模块@浙大疏锦行在 Python 中,元组(Tuple) 是一种不可变、有序、可包含任意数据类型的序列结构,也是最基础的数据类型之一。它和列表(List)语法相似(用圆括号 () 包裹),但核心区别是「不可变」—— 这让元组在数据安全、哈希(如字典键)、性能等场景中更有优势。
All The Way North-43 分钟前
pytorch·深度学习·机器学习·smooth l1损失函数·回归损失函数
PyTorch SmoothL1Loss 全面解析:数学定义、梯度推导、API 规范与 logits 误用纠正目录1、基本介绍2、logits得分 vs 预测值3、代码 & 解释:✅ 一、nn.SmoothL1Loss 是什么?
源于花海1 小时前
人工智能·机器学习·迁移学习
迁移学习基础知识——总体思路和度量准则(距离和相似度)Hi,大家好,我是半亩花海。在上节说明了迁移学习领域的一些基本知识,那么对迁移学习的问题进行简单的形式化之后,本文主要将介绍迁移学习的总体思路和常用度量准则(这里先说明距离和相似度)。核心思路是寻找源领域与目标领域的相似性(不变量)并加以利用。常用的距离度量包括欧氏距离、闵可夫斯基距离和马氏距离;相似度度量则涵盖余弦相似度、互信息、皮尔逊相关系数和Jaccard相关系数。这些度量方法对设计迁移学习算法至关重要,旨在定量评估领域相似性并指导学习过程优化。
老欧学视觉1 小时前
人工智能·算法·机器学习
0012机器学习KNN算法在KNN算法中,非常重要的主要是三个因素:KNN分类预测规则KNN回归预测规则以上代码是通过蛮力实现(brute):计算预测样本到所有训练集样本的距离,然后选择最小的k个距离即可得到K个最邻近点。缺点在于当特征数比较多、样本数比较多的时候,算法的执行效率比较低
sensen_kiss2 小时前
大数据·学习·机器学习·数据挖掘·数据分析
INT303 Big Data Analysis 大数据分析 Pt.10 分析模型和混合模型基于实例的分类器是一种机器学习方法,它通过存储训练数据集(即“已存储的案例”)来对新的、未见过的数据(即“未见过的案例”)进行分类。 当需要对新样本进行分类时,分类器会查找训练集中与新样本最相似的样本,并根据这些相似样本的类别来预测新样本的类别。 我们可以理解为我们最基本的现实世界中以最近似的情况做参考从而解决我们当下的问题。
Dev7z3 小时前
人工智能·机器学习·lstm
基于粒子群优化的LSTM时间序列预测模型研究摘要:随着工程系统中时间序列数据的复杂性不断提高,传统预测模型在泛化能力和预测稳定性方面已难以满足实际需求。长短期记忆网络(LSTM)在处理非线性与长依赖序列方面具有优势,但其预测性能高度依赖于隐层规模、学习率等超参数的设置,不合理的参数选择易导致模型收敛缓慢或陷入局部最优。为提升模型在工程时序预测任务中的精度和稳定性,构建一种高效、自动化的超参数优化策略具有重要研究价值。
CV爱数码3 小时前
人工智能·python·深度学习·机器学习·计算机视觉·数据集
【宝藏数据集】LUMOS:腰椎多模态骨质疏松症筛查专用最近又挖到一个医学影像领域的宝藏数据集——LUMOS,它是首个专门为腰椎骨质疏松筛查设计的多模态数据集,目前正在ACM MM 2025 Dataset Track审核中,对做医疗AI、骨质疏松症检测相关研究的小伙伴来说超有价值,先存下来分享一波!
杰瑞不懂代码3 小时前
python·算法·机器学习·概率论
【公式推导】AMP算法比BP算法强在哪(一)BP算法算的是一个精确的边缘概率,它做的是:因子图里面,每个节点(变量、因子)互相传消息。每个节点把邻居给的消息 相乘、求和,再发给其他邻居,最后推出来真正的边缘概率。
最晚的py3 小时前
人工智能·python·机器学习·损失函数
机器学习--损失函数损失函数(Loss Function)是机器学习中用于衡量模型预测值与真实值之间差异的函数,是优化算法的核心目标。通过最小化损失函数,模型逐步调整参数以提高预测准确性。
free-elcmacom3 小时前
开发语言·人工智能·python·算法·机器学习
机器学习入门<4>RBFN算法详解本文用生动的比喻和直观的可视化,带你一步步理解RBFN的核心思想,无需深厚数学背景也能掌握这一经典机器学习算法。
大千AI助手4 小时前
人工智能·机器学习·距离度量·大千ai助手·闵可夫斯基距离·lp距离·切比雪夫距离
闵可夫斯基距离:机器学习的“距离家族”之源本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
朝朝暮暮Quake4 小时前
机器学习
L1正则项与L2正则项等高线:表示原始的损失函数,同心椭圆的中心是原始模型的最优解(不考虑正则化)。 约束区域:正则化项对权重向量的取值范围施加了限制 L1(菱形):菱形的顶点在坐标轴上。当等高线与菱形边界相交时,交点(即新的最优解)有极大的概率落在菱形的顶点上,而顶点所在的坐标轴意味着另一个特征对应的权重为0。 L2(圆形):圆形没有尖尖的角。等高线与圆形边界相切的点(即新的最优解)几乎不可能落在坐标轴上,所以所有权重都会被保留,只是被缩小了。
渡我白衣4 小时前
人工智能·深度学习·websocket·网络协议·机器学习·网络安全·信息与通信
多路转接模型与select之前,我已经详细的为大家讲解了五种IO模型与阻塞非阻塞的概念。我们提到,如果你使用最基础的 accept、recv、send 等函数,它们都是阻塞的(因为文件描述符是阻塞的)。这意味着当一个进程/线程在等待一个连接(accept)或等待一个连接上的数据(recv)时,它什么也做不了。如果要处理多个客户端连接,传统做法是为每个连接创建一个线程/进程。这在连接数少的时候可行,但当连接数成千上万时,线程/进程的创建、调度、上下文切换和内存开销会成为巨大的性能瓶颈。
唯道行4 小时前
人工智能·算法·机器学习·计算机视觉·计算机图形学·opengl
计算机图形学·21 梁友栋-Barsky直线裁剪算法与三维直线裁剪本文是记录专业课计算机图形学的部分笔记,参考教材为Angel的第八版交互式计算机图形学——基于WebGL 2.0的自顶向下方法。
严文文-Chris4 小时前
深度学习·神经网络·机器学习
【机器学习、深度学习、神经网络之间的区别和关系】神经网络是实现深度学习的一种技术,深度学习是机器学习的一个子领域。就像:核心思想:从数据中学习规律,而不是被显式编程
严文文-Chris4 小时前
人工智能·机器学习
【机器学习三大范式对比总结】当初我学机器学习,一看到这些复杂的表格和术语就头疼。直到有一天,我意识到,这三种学习范式其实就像我们人类不同的学习方式,我才恍然大悟。现在,我希望以这段心路历程,带你用全新的视角理解它们。
龙腾AI白云4 小时前
机器学习
卷积神经网络(CNN)详细介绍及其原理详解(2)二、输入层三、卷积层卷积神经网络(CNN)详细介绍及其原理详解(2) 二、输入层 三、卷积层
落羽的落羽4 小时前
linux·运维·服务器·c++·人工智能·学习·机器学习
【Linux系统】初探 虚拟地址空间各位读者大佬好,我是落羽!一个坚持不断学习进步的学生。 如果您觉得我的文章还不错,欢迎多多互三分享交流,一起学习进步! 也欢迎关注我的blog主页: 落羽的落羽
严文文-Chris5 小时前
学习·算法·机器学习
【非监督学习常见算法】一句话理解:把相似的东西自动放一起一句话理解:从100个细节里找出最重要的3个一句话理解:K-means的大哥,有更多分组方法
玦尘、5 小时前
决策树·机器学习·学习方法
《统计学习方法》第5章——决策树(下)【学习笔记】学习机器学习的过程中,我逐渐意识到: 如果只有代码,而没有理论,就很难真正理解模型在做什么 如果只有概念,而缺少一个系统框架,又难以把知识串成体系