技术栈
机器学习
LDG_AGI
9 分钟前
数据库
·
人工智能
·
深度学习
·
elasticsearch
·
机器学习
·
搜索引擎
·
推荐算法
【搜索引擎】Elasticsearch(二):基于function_score的搜索排序
插入测试数据(含不同等级的多个用户):权重分配示例(可根据业务调整):最终得分 = _score * 2.0 + log(1 + fans_count) * 1.0 + wealth_level * 1.5 + live_level * 1.2
哥布林学者
1 小时前
机器学习
·
ai
深度学习进阶(六)归纳偏置与蒸馏
在上一篇,我们已经完成了 Vision Transformer的完整逻辑:把图像切成 patch 当作 token,送入 Transformer Encoder 做全局建模。
lisw05
2 小时前
人工智能
·
机器学习
·
机器人
家政机器人发展现状、挑战与机遇!
家政机器人正从概念走向现实,成为AI+家庭服务的重要载体。以下是基于最新行业动态的全面分析:市场规模快速增长:2024年国内养老机器人市场规模已突破300亿元,预计2025年将达500亿元。全国家政服务市场规模突破1.2万亿元,从业人员超3000万,为AI+家政融合提供广阔空间。预计到2030年,中国家政机器人市场规模将突破2000亿元,渗透率从2025年的8%提升至25%。
青春不败 177-3266-0520
3 小时前
随机森林
·
机器学习
·
r语言
·
生态学
·
植被遥感
·
生物多样性
·
物种分布
基于R语言BIOMOD2及机器学习方法的物种分布模拟与案例分析
BIOMOD2是一个R软件包,用于构建和评估物种分布模型(SDMs)。它集成了多种统计和机器学习方法,如GLM、GAM、SVM等,允许用户预测和分析物种在不同环境条件下的地理分布。通过这种方式,BIOMOD帮助研究者评估气候变化、生境丧失等因素对生物多样性的潜在影响。
LDG_AGI
3 小时前
大数据
·
人工智能
·
深度学习
·
elasticsearch
·
机器学习
·
搜索引擎
·
推荐算法
【搜索引擎】Elasticsearch(三):基于script_score的自定义搜索排序
最终得分 = matchScore × 2.0 (匹配度权重) + log(1 + fans_count) × 1.0 (粉丝数对数平滑) + wealth_level × 1.5 (财富等级线性) + live_level × 1.2 (直播等级线性)
PD我是你的真爱粉
3 小时前
人工智能
·
深度学习
·
机器学习
RAG 完全指南:从基础概念、核心流程到 Advanced RAG 与 Modular RAG
如果你最近在做 LLM 应用,几乎一定会遇到一个经典矛盾:这就是为什么 RAG 变成了今天 AI 应用落地里的高频关键词。
LDG_AGI
3 小时前
人工智能
·
深度学习
·
算法
·
elasticsearch
·
机器学习
·
搜索引擎
·
推荐算法
【搜索引擎】Elasticsearch(一):索引创建、数据插入、请求示例
新增字段:新增字段:新增字段:请求:搜索昵称包含 “Zhang” 的用户,按粉丝数从高到低排序预期返回结构(hits 部分):
学技术的大胜嗷
3 小时前
人工智能
·
深度学习
·
机器学习
YOLO 训练报错排查:解决 ultralytics 同名包冲突(本地源码 与 环境中的包)
最近在服务器上训练一个基于 ultralytics 的YOLO分割项目,项目目录里已经有一份自己的 ultralytics 源码。
财富自由且长命百岁
1 天前
机器学习
移动端老兵转型端侧 AI:第一周,我跑通了 ResNet50 推理
15 年移动端开发,第一次让神经网络在我的 MacBook 上认出了一张图片。我做了 10 年移动端开发,从 Objective-C 写到 Swift,从 Java 写到 Kotlin,经历了移动互联网最野蛮生长的年代。但最近两年,我越来越清晰地感受到:端侧 AI 才是下一个真正的战场。手机里的大模型、相机里的实时推理、可穿戴设备上的智能感知——这些都需要既懂 AI 又懂端侧工程的人。所以,我决定系统性地转型,从零开始学 PyTorch,目标是成为一名端侧 AI 工程师。
沅_Yuan
1 天前
机器学习
·
回归
·
cnn
·
lstm
·
attention
·
核密度估计
·
kde
基于核密度估计的CNN-LSTM-Attention-KDE多输入单输出回归模型【MATLAB】
在深度学习时间序列预测与回归分析中,传统的模型往往只能给出一个确定的“点预测”结果(例如:预测明天的温度是25度)。然而,在许多高风险的工程和金融场景中,我们不仅需要知道预测值是多少,还需要知道这个预测值的可靠程度(例如:明天温度在23度到27度之间的概率是90%)。
爱学习的小仙女!
1 天前
人工智能
·
机器学习
机器学习面试题(二) 损失函数 常见损失函数
损失函数(Loss Function)衡量单个样本的预测误差,即模型的预测值与真实值之间的差异。成本函数/代价函数(Cost Function)衡量所有样本上预测值和真实值的平均误差。
泰恒
1 天前
人工智能
·
深度学习
·
机器学习
计算机体系结构基础
计算机体系结构是程序员、嵌入式开发者与硬件设计者必须掌握的核心基础,它研究计算机硬件系统的逻辑组织、功能划分、指令执行流程以及软硬件之间的协同方式。通俗来说,计算机体系结构回答了三个根本问题:计算机由哪些核心部件构成?数据和指令如何在内部流动?程序如何被高效执行?从早期的电子管计算机,到如今的多核CPU、异构计算、NPU加速芯片,体系结构始终是计算机技术发展的主线。对于智能小车、嵌入式开发、AI模型部署等实践场景,理解体系结构能够帮助开发者更合理地利用硬件资源、优化程序性能、提升系统运行效率。
05大叔
1 天前
开发语言
·
python
·
机器学习
优化器Adam,神经网络处理文本,CNN,RNN
反向传播网络结构 运算过程输入 x=[x0,x1] w = [[w11,w12],[w21,w22]]
w_t_y_y
1 天前
学习
·
算法
·
机器学习
模型和算法篇(二)无监督学习
在无监督学习中,聚类和降维是两种最常见的算法,不过它们应用场景很不一样。聚类我们说过了,主要可以用来做分组;而降维,则是通过数学变换,将原始高维属性空间转变为一个低维“子空间”,它本质上是通过最主要的几个特征维度实现对数据的描述。
liliangcsdn
1 天前
人工智能
·
算法
·
机器学习
ChromaDB距离计算公式示例
faiss和chromadb是LLM时代两种重要的轻量级向量库实现方式。之前探索了使用向量库faiss和LLM判断问题是否被记录。
nancy_princess
1 天前
机器学习
显式 + 隐式特征交叉融合模型
wide部分是一个广义的线性模型。y是预测值,x=[x1,x2,....,xd]是特征向量,w=[w1,w2,.....,wd]为模型参数,b为偏差。特征集包括原始输入特征和转换后的特征。 Wide部分的作用是让模型具有较强的“记忆能力”。
SEO-狼术
1 天前
算法
·
决策树
·
机器学习
Visualize Org Charts and Decision Trees in WinForms
Attend the MESCIUS CodeClinic live webinar & learn to convert datasets into interactive diagrams.
RuiBo_Qiu
1 天前
人工智能
·
深度学习
·
机器学习
·
ai-native
DPO 训练 loss 公式推导
在传统的 RLHF 中,第一步是训练一个奖励模型(Reward Model, 简称 RM) rϕ(x,y)r_\phi(x, y)rϕ(x,y)。
靠沿
1 天前
算法
·
机器学习
·
剪枝
【递归、搜索与回溯算法】专题三——穷举vs暴搜vs深搜vs回溯vs剪枝
Leetcode链接 给定一个不含重复数字的数组 nums ,返回其 所有可能的全排列 。你可以 按任意顺序 返回答案。