深度学习

墨北小七3 小时前
人工智能·深度学习·神经网络
使用InspireFace进行智慧楼宇门禁人脸识别的训练微调**InspireFace** 是一个跨平台的高性能人脸识别 SDK,底层模型基于 InsightFace 的先进算法(如 ArcFace 损失),并对移动端、嵌入式设备做了深度优化。官方提供了预训练模型,但在特定业务场景(如强光照变化、角度偏转、低质量图像)下,直接使用开源模型可能精度不足。通过**微调(Fine-tuning)**,你可以用自有的业务数据让模型适应目标人群和环境,显著提升识别准确率。
数智工坊3 小时前
论文阅读·深度学习·transformer
【Mask2Former论文阅读】:基于掩码注意力的通用分割Transformer,大一统全景/实例/语义分割在计算机视觉里,图像分割长期被三大任务割据:过去的模型各玩各的: FCN 系主打语义,Mask R-CNN 系主打实例,全景模型又要重新设计。
fpcc4 小时前
人工智能·深度学习
AI和大模型——Fine-tuningFine-tuning,微调。在大模型中,微调通常指在一个已预训练完成的大语言模型基础上,引入特定领域或特定任务的数据,对模型的部分或全部参数进行进一步训练的过程。其目的在于让大模型的适应特定的应用场景并完成特定领域的相关任务。 微调中,最重要的一环当然是参数的调整,毕竟所谓的大模型就是以海量参数体现出其具体的优势的。当然,微调必须在支持可微调的大模型上才可以。也就是说,不是所有的大模型都支持微调的。这个是否支持微调,不仅仅包含大模型自身也包括相关服务(比如许可证或应用开发条款等等)的提供。即开源的本地微
AI医影跨模态组学5 小时前
人工智能·深度学习·论文·医学·医学影像·影像组学
如何将纵向MRI深度学习特征与局部晚期直肠癌新辅助放化疗后的免疫微环境建立关联,并解释其对pCR及预后的机制01导语各位同学,大家好。做影像组学最怕什么?模型AUC刷得飞起,但一问“为什么这个特征能预测疗效”,当场哑火——这就像算命先生掐指一算挺准,但你要问他凭什么,他只能说“天机不可泄露”。真正能发高分、经得起推敲的研究,早就不是单纯比谁AUC高了,而是想方设法给影像特征找个“生物学娘家”,让MRI上的明暗变化,能跟细胞、通路、免疫微环境对上话。今天咱们通过这篇MR‑DELTAnet文献,看看人家是怎么用纵向MRI预测病理完全缓解,再靠单细胞测序把“高分/低分”背后的免疫故事讲圆的。看完你就明白:影像组学挂靠
冰西瓜6007 小时前
人工智能·深度学习·transformer
深度学习的数学原理(三十三)—— Transformer编码器完整实现在本专栏的第25-32篇文章中,我们已经完成了Transformer编码器所有核心基础组件的数学拆解与代码实现:
我是大聪明.8 小时前
人工智能·深度学习·线性代数·机器学习·矩阵
CUDA矩阵乘法优化:共享内存分块与Warp级执行机制深度解析理解GPU并行计算的本质,需要从SIMT(Single Instruction Multiple Thread)执行模型说起。与传统SIMD不同,SIMT允许每个线程独立执行路径,但所有线程同时执行同一条指令。NVIDIA GPU由多个流式多处理器(SM)组成,每个SM包含128至192个执行核心,能够同时调度数千个线程。
码云数智-大飞9 小时前
人工智能·深度学习
大模型幻觉:成因解析与有效避免策略在人工智能飞速发展的今天,大模型已成为推动各行业变革的核心力量。然而,随着大模型应用的日益广泛,一个令人头疼的问题也逐渐浮出水面——大模型幻觉。所谓大模型幻觉,指的是模型生成看似合理但实际错误、无依据或编造的内容。这一问题不仅影响了模型的可靠性,更在医疗、金融、法律等高风险场景中引发了决策错误、法律纠纷及品牌声誉损害等严重后果。那么,大模型幻觉究竟是如何产生的?我们又该如何有效避免AI胡说八道呢?
木枷9 小时前
人工智能·深度学习
rl/swe/sft相关论文列表Distributional Clarity: The Hidden Driver of RL-Friendliness in Large Language Models
A7bert7779 小时前
c++·python·深度学习·yolo·目标检测
【YOLOv8pose部署至RDK X5】模型训练→转换bin→Sunrise 5部署已在GitHub开源与本博客同步的YOLOv8_RDKX5_object_pose项目,地址:https://github.com/A7bert777/YOLOv8_RDKX5_object_pose 详细使用教程,可参考README.md或参考本博客第八章 模型部署
爱学习的张大9 小时前
人工智能·深度学习
具身智能论文精度(八):Pi0.6只要敢于尝试,你能学到的东西超乎想象。时间紧张ai翻译图 1:RECAP 框架概览。RECAP 实现了基于奖励反馈与人工干预的视觉 - 语言 - 动作模型(VLA)训练。
墨北小七10 小时前
人工智能·深度学习·神经网络
从目标检测到行为识别:YOLO 模型微调实战YOLO(You Only Look Once)系列因其高效、准确的特点,已成为目标检测领域的标杆。随着 YOLOv8、YOLOv11 等版本的推出,模型不再局限于检测边界框,还能直接预测实例分割、姿态关键点,甚至旋转框,这为行为识别任务提供了新的范式。本文将带你从零开始,使用 Ultralytics 框架对 YOLO 进行微调,不仅完成自定义的目标检测,还会利用姿态估计实现一个轻量级的摔倒检测行为识别系统。完整代码均基于 Python,可直接运行。
大模型最新论文速读11 小时前
论文阅读·人工智能·深度学习·机器学习·自然语言处理
Select to Think:蒸馏 token 排序能力,效果平均提升24%SLM 的效果差不是因为它不会,而是它没把正确答案排到第一;蒸馏排序能力让 SLM 效果平均提升 24%
Studying 开龙wu11 小时前
pytorch·深度学习·yolo
深度学习PyTorch 实战九:YOLOv1目标检测从标注-训练-预测
冰西瓜60013 小时前
人工智能·深度学习·transformer
深度学习的数学原理(三十二)—— Transformer全场景掩码机制详解在本专栏的第27篇文章中,我们已经初步介绍了Transformer解码器中的掩码注意力(Masked Attention),核心是通过“未来掩码”保证自回归生成时不会“偷看未来”。但这只是掩码机制的一部分,在完整的Transformer训练与推理流程中,我们需要处理两类更通用的场景:
憨波个13 小时前
人工智能·深度学习·算法·音频·语音识别
【说话人日志】DOVER-Lap:overlap-aware diarization 输出融合算法论文:DOVER-Lap: A Method for Combining Overlap-aware Diarization Outputs 作者:Desh Raj, Leibny Paola Garcia-Perera, Zili Huang, Shinji Watanabe, Daniel Povey, Andreas Stolcke, Sanjeev Khudanpur 时间:2020 arXiv:2011.01997 任务:Speaker Diarization Output Combinatio
娃娃略13 小时前
人工智能·深度学习·机器学习
Frame这一章我们重点讨论:如何从混乱的原子坐标中抽象出标准的局部框架(Local Frames)。在第一章我们提到了 S E ( 3 ) SE(3) SE(3) 不变性。直接回归 N N N 个原子的 ( x , y , z ) (x, y, z) (x,y,z) 坐标会面临两个致命问题:
逻辑驱动的ken14 小时前
java·开发语言·深度学习·面试·职场和发展
Java高频面试考点场景题20问题根源:项目订单列表分页查询时,运营脚本从第一页查询到第 5000 页,原 SQL(SELECT * FROM orders LIMIT 100000,20)未走索引覆盖,每扫一条数据需回表查完整信息,10 万条数据回表 10 万次,打爆磁盘 I/O,数据库 CPU 从 30% 飙至 100%。
2zcode14 小时前
人工智能·深度学习·算法
基于深度学习的口腔疾病图像识别系统(UI界面+改进算法+数据集+训练代码)摘要:口腔疾病是影响人类健康的常见疾病,传统的口腔疾病诊断依赖于专业医生的经验判断,存在效率低、主观性强等问题。随着深度学习技术的快速发展,基于计算机视觉的智能检测方法为口腔疾病的早期筛查和辅助诊断提供了新的解决方案。本文设计并实现了一个基于YOLOv8深度学习算法的口腔疾病智能检测系统,旨在提高口腔疾病检测的准确性和效率
小龙报14 小时前
java·人工智能·python·深度学习·低代码·chatgpt·交互
【Coze-AI智能体平台】低代码省时高效:Coze 应用开发全流程指南🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人方向学习者 ❄️个人专栏:《coze智能体开发平台》 ✨ 永远相信美好的事情即将发生
Echo_NGC223714 小时前
人工智能·python·深度学习·神经网络·机器学习·conda·transformer
【论文解读】Attention Is All You Need —— AI 时代的“开山之作“,经典中的经典(transformer小白导读)🏷️ 论文原名:Attention Is All You Need 👥 作者团队:Google Brain (Ashish Vaswani, Noam Shazeer 等) 📅 发表年份:2017 (NIPS) 🌟 地位:这是深度学习历史上最重要的论文之一,它提出的 Transformer 架构开启了如今的大模型时代(GPT, BERT, Claude 等均源于此)。