机器学习

Master_oid34 分钟前
人工智能·机器学习
机器学习38:距离度量与特征处理本文介绍了机器学习中常用的四种距离度量方法:欧氏距离、曼哈顿距离、切比雪夫距离以及闵可夫斯基距离,并解释了它们之间的数学关系与适用场景。此外,文章详细阐述了特征处理中的两种无量纲化技术——归一化与标准化,分析了各自的原理、计算公式、优缺点及适用条件,并通过代码展示了基于scikit-learn的具体实现。这些预处理方法对提升模型性能与稳定性具有重要意义。
Hello.Reader1 小时前
线性代数·算法·机器学习
为什么学线性代数(一)考虑以下方程组:{2x1+x2=0x1−x2=1 \begin{cases} 2x_1 + x_2 = 0 \\ x_1 - x_2 = 1 \end{cases} {2x1+x2=0x1−x2=1
网络工程小王1 小时前
人工智能·深度学习·机器学习
【大模型基础部署】(学习笔记)目录大模型部署学习笔记:从压缩到应用开发的全流程指南一、模型压缩:让大模型“瘦身”上终端1.1 为什么需要压缩?
别或许1 小时前
人工智能·算法·机器学习
4、高数----一元函数微分学的计算若以下函数均可导,则①和、差的导数(微分)②积的导数(微分)注:(1)函数乘积求导公式的证明,设(2),如果遇到因式超过三个的式子,一般不要直接求导,而要另谋他法。
嵌入式老牛2 小时前
人工智能·机器学习·优化·模型·学习准则
第4课 机器学习的三要素机器学习是从有限的观测数据中学习出具有一般性的规律,并可以将总结出来的规律推广应用到为观测样本上。机器学习方法课粗略地分为三个基本要素:模型、学习准则、优化算法。
Thanwind2 小时前
人工智能·机器学习
从0开始的机器学习之旅(一):什么是机器学习近十年来,毫无疑问最具潜力,颠覆最大的就是AI,在短短的几年时间从默默无闻到异军突起,再到一统江湖。毫无疑问,作为一个技术人员,去学习AI是非常有价值的且必须的。或许我们天天都在用各种Agent,各种LLM,但如果我们不知道它们的原理,仅仅只是把它们当成一个“黑盒”,那相信如果技术发生变革那一刻,我们是很被动的。但作为一个RD,从自身的角度来说,我们并不需要像算法岗了解得那么深,但我们需要知其然更知其所以然。对自己天天在使用的工具有一个相对清晰的了解与认知,想必是对自身在AI浪潮的发展中大有裨益的,这也是
明月照山海-2 小时前
人工智能·机器学习
机器学习周报四十本周阅读了论文Self-Supervised Cross-Language Scene Text Editing和CLIP is Almost All You Need: Towards Parameter-Efficient Scene Text Retrieval without OCR,探索跨语言图片文本编辑和无监督学习训练的方法。
赵域Phoenix3 小时前
人工智能·算法·机器学习
混沌系统是什么?混沌系统(Chaos),指的是一种存在明确运行规则,但是运行结果无法确定的系统。 混沌系统的核心其实是:拉伸+压缩 举个不恰当的例子,三星系统中的三颗恒星都具有自己的速度,都倾向于飞向各自的方向,这就是拉伸。但是它们之间又受到互相之间的引力拉扯,这就是压缩。这种不断地拉伸压缩最终构成了一个混沌系统
泰恒3 小时前
人工智能·深度学习·yolo·机器学习·计算机视觉
人工智能简述人工智能(Artificial Intelligence,简称AI),简单来说,就是让机器具备人类智能的技术。它不是某一种单一的技术,而是一门涵盖计算机科学、数学、心理学、语言学等多学科的交叉领域,核心目标是让机器能够模拟、延伸和扩展人类的智能,完成原本需要人类大脑才能处理的复杂任务——从识别图像、理解语言,到推理决策、创造内容,甚至超越人类的极限能力。
网络工程小王4 小时前
人工智能·算法·机器学习
【大模型(LLM)的业务开发】学习笔记目录第一阶段:预训练 —— 夯实知识基座第二阶段:有监督微调 —— 激发指令能力第三阶段:奖励建模 —— 建立评价标准
SLAM必须dunk4 小时前
人工智能·深度学习·机器学习·机器人
四足强化入门3---Robot Lab重点机器人配置,训练和调参#从本质上说,这个主类的作用把locomotion强化学习任务所有关键元素全部组织成一个标准化,可复用的,可继承的环境模板,为后续不同机器人只要在这个模板上替换自己信息配置,奖励函数权重,少量参数就可以快速构建训练环境
AI医影跨模态组学4 小时前
人工智能·深度学习·机器学习·论文·医学·医学影像
ESMO Open 中国医学科学院肿瘤医院:整合影像组学、病理组学和活检适应性免疫评分预测局部晚期直肠癌远处转移01文献学习今天分享的文献是由中国医学科学院肿瘤医院(国家癌症中心/国家肿瘤临床医学研究中心)团队于2025年2月在《ESMO Open》(中科院1区top,IF=8.3)上发表的研究“Integrating radiomics, pathomics, and biopsy-adapted immunoscore for predicting distant metastasis in locally advanced rectal cancer”即结合放射组学、病理组学和活检适应性免疫评分预测局部晚期直
wayz115 小时前
人工智能·机器学习
Day 1 编程实战:机器学习基础与评估指标观察结论:下面的代码定义了一个 学习曲线 的函数,这是一个非常重要的机器学习诊断工具。学习曲线解读:learning_curve(): sklearn 函数,用于生成学习曲线
xixixi777776 小时前
大数据·人工智能·机器学习·ai·大模型·算力·通信
Token 经济引爆 AI 产业加速:从百模大战到百虾大战,谁在定义 2026 的中国 AI?当全球 AI 产业的焦点还在为单一模型的性能突破争论不休时,2026 年春天的中国 AI 市场,正在上演一场更为宏大且多维的产业变革。中国 AI 大模型周调用量连续五周超越美国,字节跳动、阿里、智谱、腾讯等巨头密集发布新一代模型与智能体,一场围绕“Token 经济”的全球竞赛正进入白热化阶段。
xiaoyaohou116 小时前
网络·深度学习·机器学习
011、骨干网络改进(二):MobileNet、ShuffleNet等轻量骨干的适配上周在 Jetson Nano 上部署 YOLO 检测模型,原版 Darknet53 骨干跑起来只有 3 FPS,内存直接飙到 90%。客户要求至少 15 FPS 且功耗不能太高。试过剪枝、量化,效果都不理想,最后决定换轻量骨干。本以为把 backbone 替换成 MobileNet 就完事,结果训练时 loss 震荡,推理时漏检严重——轻量骨干的适配,远不是改个网络结构那么简单。
wayz117 小时前
算法·机器学习·数据分析·回归·线性回归
Day 2:线性回归原理与正则化定义:线性回归是一种监督学习方法,用于预测连续值输出。它假设输入特征和输出之间存在线性关系。数学形式: y=β0+β1x1+β2x2+⋯+βnxn+ϵ y = \beta_0 + \beta_1x_1 + \beta_2x_2 + \dots + \beta_nx_n + \epsilon y=β0+β1x1+β2x2+⋯+βnxn+ϵ
sp_fyf_20247 小时前
人工智能·深度学习·神经网络·机器学习·语言模型
【大语言模型】 揭秘OPD:大语言模型的长度膨胀与稳定化策略📌 文章信息 Original Title: Demystifying OPD: Length Inflation and Stabilization Strategies for Large Language Models 中文标题: 揭秘OPD:大语言模型的长度膨胀与稳定化策略
小鱼~~7 小时前
人工智能·机器学习·集成学习
集成学习思想集成学习思想的核心可以概括为一句话:“三个臭皮匠,顶个诸葛亮。”它不是试图找到一个“完美”的单一模型,而是通过策略性地结合多个“不那么完美”的模型(弱学习器),来获得一个更强大、更稳定、更准确的最终模型。
春末的南方城市7 小时前
人工智能·深度学习·机器学习·计算机视觉·aigc
CVPR 2026 | 复旦开源首个端到端多模态矢量动画生成框架OmniLottie:UI动效革命,文本/图像一键转Lottie动画!在UI/UX设计和前端开发领域,制作高质量的交互动画(Motion Design)一直是个痛点:设计师需要在After Effects中 painstakingly 绘制关键帧,开发人员则需要反复调整代码以还原效果,而最终的Lottie文件往往体积大、兼容性差。 由复旦OpenVGLab团队推出的OmniLottie提出了首个全能型多模态Lottie动画生成模型。它打破了传统工作流的壁垒,支持“文本生成动画”、“图像生成动画”、“草图转动画”甚至“视频风格迁移为Lottie”。OmniLottie 不仅能
sp_fyf_20248 小时前
人工智能·深度学习·学习·机器学习·语言模型·自然语言处理
【大语言模型】从失败中学习:在微调大型语言模型作为智能体时整合负例大型语言模型在作为智能体与外部环境(如搜索引擎等工具)交互方面已取得成功。然而,LLMs 在预训练或对齐阶段主要是针对语言生成而非工具使用进行优化的,这限制了它们作为智能体的有效性。为了解决这个问题,先前的工作通常先收集 LLM 与环境之间的交互轨迹,但仅使用那些成功完成任务的轨迹来微调较小的模型。这种做法使得微调数据变得稀缺,且获取数据既困难又昂贵。丢弃失败的轨迹也导致了数据和资源的大量浪费,并限制了微调过程中的潜在优化路径。