深度学习

一招定胜负35 分钟前
深度学习·机器学习·面试
机器学习 + 深度学习经典面试真题目录前言第一部分:机器学习高频面试题1. K 近邻(KNN)基础题进阶题实战题2. 逻辑回归(LR)基础题
啊巴矲41 分钟前
人工智能·深度学习
小白从零开始勇闯人工智能:深度学习汇总(复习大纲篇)输入:特征向量,比如一张图片的像素值、房价预测中的面积和房间数。权重:每个输入的重要程度,模型通过训练自动学习。如果所有权重初始化为 0,所有神经元对称,无法学习。
梦醒过后说珍重1 小时前
python·深度学习
Python 工程化实战:如何将复杂的EndoMamba感知损失封装为“即插即用”的独立模块包摘要:在深度学习算法工程中,将复杂模块(如自定义的感知损失、注意力机制等)封装为独立的 Python 包是告别“面条代码”、提升复用率的关键。本文记录了我是如何将上百行的基于 Mamba 的感知损失代码从主训练脚本中剥离,通过规范的目录结构、相对导入与动态权重路径寻址,将其重构为“一行代码即可调用”的即插即用黑盒组件的全过程。
CoovallyAIHub1 小时前
深度学习·算法·计算机视觉
编码智能体做 CV 任务,实际能力到哪一步了?——五项视觉任务实测解读导读编码智能体(Coding Agent)能自动写代码、跑脚本、调 bug、迭代优化,但如果交给它一个视觉任务——比如数一张图里有多少只鸟、从视频里跟踪计数车辆、识别车牌——它能做到什么程度?
梦醒过后说珍重1 小时前
python·深度学习
PyTorch 工程实践:如何优雅地将 ViT 大模型封装为即插即用的感知损失(Perceptual Loss)【文章摘要】本文记录了如何将庞大的医疗视觉大模型(ViT架构)剥离核心特征提取器,并重构封装为一个不依赖外部 YAML 配置、支持动态路径寻址、设备自适应的即插即用型感知损失(Perceptual Loss)模块。文章分享了消除绝对导入陷阱、屏蔽第三方库警告以及 ViT 维度重塑的实战经验,适合有一定 PyTorch 工程化需求的开发者阅读。
霖大侠1 小时前
人工智能·深度学习·机器学习
Towards Generalizable Scene Change Detection尽管当前最先进的场景变化检测(SCD)方法在训练充分的研究数据上取得了显著成果,但在未见环境和不同时间条件下却变得不可靠——域内性能在先前未见环境中从77.6%降至8.0%,在不同时间条件下则降至4.6%——这迫切呼唤具有泛化能力的SCD方法及其基准。为此,我们提出泛化场景变化检测框架(GeSCF),旨在解决未知域性能与时间一致性问题,以满足日益增长的任意场景变化检测需求。该方法以零样本方式利用预训练的Segment Anything Model(SAM)。我们设计了初始伪掩码生成与几何-语义掩码匹配模块
2601_950760791 小时前
人工智能·深度学习·机器学习
UA-MHC H-2D(b)/EGSRNQDWL gp100四聚体-APC标记在抗原特异性T细胞检测中的应用一、肿瘤驱动基因突变作为免疫治疗靶点的研究背景KRAS基因是肿瘤中高频突变的癌基因之一,其中G12D突变在胰腺癌、结直肠癌和肺癌等多种恶性肿瘤中广泛存在。该突变位点产生的新生抗原肽段为肿瘤免疫治疗提供了理想靶点。准确识别和定量分析针对KRAS G12D突变的新生抗原特异性CD8+ T细胞,对于解析抗肿瘤免疫机制、评估免疫治疗效果具有重要意义。主要组织相容性复合体(MHC)四聚体技术的建立,为直接可视化和定量分析这类低频但高度特异的T细胞群体提供了关键技术手段。
deephub1 小时前
人工智能·深度学习·机器学习·微调·prompt
知识引导上下文优化(KgCoOp):一种解决灾难性遗忘的 Prompt Tuning 机制视觉-语言模型(VLMs)如 CLIP 彻底改变了零样本图像识别的处理方式。这类模型在包含 4 亿个图像-文本对的大规模数据集上进行训练,捕获了海量通用知识,具备了识别未被明确训练过对象的能力。
动物园猫2 小时前
深度学习·yolo·分类
城市道路设施及道路安全隐患数据集分享(适用于YOLO系列深度学习分类检测任务)链接: https://pan.baidu.com/s/1A9FGdQ3qodlKWPjmDuiCsw?pwd=39yp 提取码: 39yp 复制这段内容后打开百度网盘手机App,操作更方便哦
龙文浩_2 小时前
人工智能·python·深度学习·神经网络·机器学习
【无标题】AI深层神经网络(多层全连接)+ ReLU 激活 的完整处理流程AI深层神经网络(多层全连接)+ ReLU 激活 的完整处理流程,从输入 → 前向 → 反向 → 更新 → 推理。
zzh940772 小时前
人工智能·深度学习·计算机视觉
大模型压缩与蒸馏技术拆解:GPT-4o与Gemini官网如何实现模型瘦身?大模型的参数量动辄千亿甚至万亿级别,直接部署和运行成本极高。如何在保持性能的前提下让模型变得更小、更快、更经济,是工业界持续攻关的技术难题。
RuiBo_Qiu2 小时前
人工智能·深度学习·神经网络
LLM的神经网络之谜: 神经网络是简单的线性计算加非线形激活的堆叠在当下这个“AI 无处不在”的时代,大语言模型(LLM)展现出了惊人的理解和生成能力。但如果剥去这些庞大模型的高深外衣,它们最核心的计算基石到底是什么?
龙文浩_2 小时前
深度学习·神经网络
AI深度学习,神经网络处理流程AI深度学习,神经网络处理流程: 输入 → 前向 → 损失 → 反向 → 更新 → 预测。一、整体流程神经网络完整处理分为两大阶段: 1. 训练阶段(学参数 W, b)初始化 → 前向传播 → 算损失 → 反向传播 → 更新参数 → 循环2. 推理阶段(用模型)只前向传播,输出结果 二、详细流程 全连接网络 + 回归任务 0. 准备:数据、网络、初始化 1)构造数据(回归任务:y = wx + b)import torchimport torch.nn as nnimport torch.optim as
小柒777772 小时前
人工智能·深度学习·语言模型
PEFT(Parameter-Efficient Fine-Tuning)---LoRa方法1.四种范式提示:如何更好的和大语言模型对话peft涉及对模型参数的改变和学习:如何得到更好的大语言模型
weixin_440401692 小时前
人工智能·深度学习·神经网络·图神经网络·gnn·gcn
GNN(图神经网络)+GCN技术博客 A Gentle Introduction to Graph Neural Networks 该博客提供了一个playground(试炼场,就是一个给你自己去试试这个东西的环境)
小龙报2 小时前
人工智能·深度学习·机器学习·语言模型·自然语言处理·github·aigc
【Coze-AI智能体平台】解锁 Coze 工作流:逻辑控制・数据处理・AIGC 多媒体全场景实战🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人方向学习者 ❄️个人专栏:《coze智能体开发平台》 ✨ 永远相信美好的事情即将发生
盼小辉丶2 小时前
人工智能·pytorch·深度学习·自动机器学习
PyTorch实战(37)——使用Optuna搜索最优超参数在自动机器学习一节中,我们完成了对 Auto-PyTorch 的探索。我们成功地在没有指定模型架构和超参数的情况下,通过使用 Auto-PyTorch 自动化构建了 MNIST 数字分类模型。接下来,我们将重点讨论 Optuna——这是一个专注于寻找最优超参数组合、且与 PyTorch 兼容良好的工具。该工具采用的树结构 Parzen 估计器 (Tree-Structured Parzen Estimation, TPE) 和协方差矩阵自适应进化策略 (Covariance Matrix Adaptati
Shining05962 小时前
人工智能·深度学习·算法·大模型·ai芯片·智能体·推理引擎
推理引擎系列(七)《InfiniLM》目录InfiniLM 技术架构演进框架版本迭代整体架构设计核心组件解析作业项目实战指南环境配置要求核心模块实现
Benjamin Liang3 小时前
深度学习
无数据/零样本量化2——GDFQ:Generative low-bitwidth data free quantization译文标题:GDFQ:一种生成式的低比特位宽零样本量化方法 出处:2020 ECCV 作者:Xu Shoukai等 作者单位:华南理工 论文地址:http://arxiv.org/abs/2003.03603 论文代码地址:https://github.com/xushoukai/GDFQ
Mr.Winter`3 小时前
人工智能·pytorch·深度学习·神经网络·机器人·自动驾驶·具身智能
深度强化学习 | 基于Double DQN算法的移动机器人路径规划(附Pytorch实现)本专栏以贝尔曼最优方程等数学原理为根基,结合PyTorch框架逐层拆解DRL的核心算法(如DQN、PPO、SAC)逻辑。针对机器人运动规划场景,深入探讨如何将DRL与路径规划、动态避障等任务结合,包含仿真环境搭建、状态空间设计、奖励函数工程化调优等技术细节,旨在帮助读者掌握深度强化学习技术在机器人运动规划中的实战应用