机器学习

小鱼~~17 分钟前
人工智能·机器学习·集成学习
集成学习简介集成学习是一种机器学习方法。它不试图训练一个单独的模型来解决问题,而是训练多个模型(通常称为“弱学习器”或“基学习器”),然后将它们的预测结果以某种策略组合起来,以得到一个更强大、更准确的最终模型。
半兽先生20 分钟前
人工智能·机器学习
03阶段:机器学习・人工智能三大概念:人工智能(AI)、机器学习(ML)、深度学习(DL)。・人工智能:是一个研究领域,像人一样、机器智能的综合与分析。
陈天伟教授40 分钟前
人工智能·神经网络·安全·机器学习·量子计算
“快速模式”和“专家模式”你提到的“快速模式”和“专家模式”通常出现在各类工具、软件或AI产品中。由于没有指明具体场景,我列举几个最常见的情况供你参考:
Satellite-GNSS1 小时前
人工智能·深度学习·机器学习
机器学习全家族模型详解 + 关系梳理机器学习(ML)是人工智能(AI)的核心分支,所有你听过的模型,无论是传统的线性回归、XGBoost,还是深度学习里的 CNN、Transformer、GNN,全都是机器学习家族的成员,只是分属不同的分支、适配不同的场景。
henrylin99991 小时前
人工智能·python·机器学习·hermes·hermesagent
Hermes Agent 06. 技能、记忆与上下文文件如果说工具决定 Hermes “能不能做”,那么技能、记忆和上下文文件决定它“会不会持续做对”。Skill 是按需加载的流程知识。它更像一份可执行的说明书,而不是一条记忆条目。
Dfreedom.1 小时前
人工智能·pytorch·深度学习·机器学习·scikit-learn
PyTorch 与 scikit-learn 全景对比分析在人工智能蓬勃发展的今天,两个开源库以截然不同的方式塑造着机器学习领域:PyTorch 以其动态计算图和端到端可微分编程定义了深度学习的研究范式,而 scikit-learn 凭借其一致的 API 设计和丰富的传统算法集成为机器学习实践的标准工具。它们代表了机器学习发展的两个不同维度:PyTorch 追求深度——专注于神经网络和复杂表征学习;scikit-learn 追求广度——覆盖从数据清洗到模型评估的完整工作流。
kishu_iOS&AI1 小时前
人工智能·机器学习·逻辑回归
机器学习 —— 逻辑回归(浅析与实例)目录一、概念二、数学知识1.sigmoid 函数2.概率<1> 边际概率 ——<2> 联合概率 ——<3> 条件概率 ——
时序之心1 小时前
人工智能·深度学习·机器学习·时间序列
做不规则多变量时序预测,试试ReIMTS递归多尺度框架,我实验涨点明显!不规则多变量时间序列的预测任务在医疗、气象等领域至关重要,但其面临着采样间隔不均和数据缺失两大挑战。传统方法难以在稀疏数据中捕捉可靠模式,而现有的大型预训练模型多为规则采样数据设计。
白緢1 小时前
人工智能·机器学习
机器学习概念及学习目标机器学习是计算机科学和人工智能的一个子领域,它通过对大量数据进行 分析,自动构建数学模型,从而能够在未见过的数据上进行预测、分类、 决策或生成内容。该算法通过训练数据优化模型参数,使模型能够根据输 入数据生成合理的输出。
xiaotao1311 小时前
人工智能·深度学习·机器学习
阶段零:AI、机器学习、深度学习之间的关系AI、机器学习、深度学习:一文讲透三者的关系从零开始,用最直观的方式理解AI核心概念深度学习 ⊂ 机器学习 ⊂ 人工智能
测绘第一深情1 小时前
开发语言·人工智能·经验分享·深度学习·机器学习·自动驾驶·transformer
Transformer:从基础原理到自动驾驶 BEV 矢量化地图构建2017 年,Google 发表《Attention Is All You Need》,Transformer 横空出世,彻底颠覆了自然语言处理领域。短短几年间,它一路 “破圈”,成为计算机视觉、自动驾驶感知、BEV 建模、矢量化高精地图构建的绝对核心支柱。
枫叶林FYL2 小时前
python·深度学习·机器学习
【Python高级工程与架构实战】项目六:RAG知识库问答系统(企业文档智能)目录6.1 数据摄取管道6.1.1 文档解析引擎:Unstructured.io处理PDF表格与层级标题
Z.风止2 小时前
人工智能·pytorch·笔记·python·深度学习·机器学习
Large Model-learning(4)只要在进步,就是好样的!忙了一下比赛的事情,论文还剩下两个实验没做了。本节致力于学习将 transform 和数据集结合在一起,新建文件 P11_dataset_transform.py 用于学习
山间小僧10 小时前
机器学习·aigc·ai编程
「AI学习笔记」RNN从一个小白的角度学习AI,如果有任何问题,欢迎指出在 Transformer 出现之前,序列建模领域的主角长期是 RNN 及其变体。 如果把这段历史简化成一句话:RNN 先解决“能处理序列”,Seq2Seq 解决“输入输出不等长”,Attention 再解决“信息压缩与长距离依赖”。
春末的南方城市17 小时前
人工智能·深度学习·机器学习·计算机视觉·aigc
比肩顶尖闭源模型!京东开源240亿参数多模态模型JoyAI-Image:统一理解/生成/编辑,重塑AI图像编辑。在数字图像创作与编辑领域,我们长期面临着一个痛点:不同的编辑任务需要不同的工具。想要移除背景用A模型,更换风格用B模型,修复瑕疵用C模型……这种"碎片化"的工作流不仅效率低下,还难以保证输出质量的一致性。
哥布林学者17 小时前
机器学习·ai
深度学习进阶(七)Data-efficient Image Transformer在前面的分析中,我们已经明确了 ViT 的核心问题:由于归纳偏置较弱,ViT 对数据规模高度依赖。就这个问题,我们又展开了一种改进思路:
做cv的小昊17 小时前
学习·线性代数·机器学习·数学建模·矩阵·概率论·tju
【TJU】应用统计学——第五周作业(3.1 假设检验的基本思想、3.2 单个正态总体参数的假设检验)1️⃣ 对正态总体数学期望的检验问题,当方差已知时采用的检验统计量服从( )分布设总体为 X ∼ N ( μ , σ 2 ) X\sim N(\mu,\sigma^2) X∼N(μ,σ2),且 σ 2 \sigma^2 σ2 已知,检验 H 0 : μ = μ 0 H_0:\mu=\mu_0 H0:μ=μ0 时常用统计量为
kyle-fang17 小时前
人工智能·深度学习·机器学习
大模型微调根据更新参数的范围,主要分为两种策略:大模型的微调技术主要可以分为两大类:传统的全参数微调和当前主流的参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)。
Master_oid18 小时前
人工智能·机器学习
机器学习38:距离度量与特征处理本文介绍了机器学习中常用的四种距离度量方法:欧氏距离、曼哈顿距离、切比雪夫距离以及闵可夫斯基距离,并解释了它们之间的数学关系与适用场景。此外,文章详细阐述了特征处理中的两种无量纲化技术——归一化与标准化,分析了各自的原理、计算公式、优缺点及适用条件,并通过代码展示了基于scikit-learn的具体实现。这些预处理方法对提升模型性能与稳定性具有重要意义。