深度学习

泰恒1 小时前
人工智能·深度学习·yolo·机器学习·计算机视觉
人工智能简述人工智能(Artificial Intelligence,简称AI),简单来说,就是让机器具备人类智能的技术。它不是某一种单一的技术,而是一门涵盖计算机科学、数学、心理学、语言学等多学科的交叉领域,核心目标是让机器能够模拟、延伸和扩展人类的智能,完成原本需要人类大脑才能处理的复杂任务——从识别图像、理解语言,到推理决策、创造内容,甚至超越人类的极限能力。
微尘hjx1 小时前
人工智能·深度学习·大模型·标注工具·训练数据集·yolo数据集
【数据集】数据集汇总(按比例划分训练、验证、测试)包含训练好的模型汇总往期的数据集链接。家庭室内烟火数据集吸烟行为数据集参考链接【深度学习02】YOLO模型的数据集、训练、验证、预测、导出_yolo训练数据集-CSDN博客
墨北小七1 小时前
深度学习·神经网络
小说大模型---全连接神经网络-大模型中真正的“守门人”然而,当DeepSeek这样的“顶流”大模型风光无限时,一个容易被忽视的关键问题浮出水面:**那些让小说更“好看”的决策任务——判断一个开篇会不会爆、分析你的文风像不像某位大神、决定剧情走向是否合乎逻辑——究竟是谁在幕后说了算?**
SLAM必须dunk2 小时前
人工智能·深度学习·机器学习·机器人
四足强化入门3---Robot Lab重点机器人配置,训练和调参#从本质上说,这个主类的作用把locomotion强化学习任务所有关键元素全部组织成一个标准化,可复用的,可继承的环境模板,为后续不同机器人只要在这个模板上替换自己信息配置,奖励函数权重,少量参数就可以快速构建训练环境
shy^-^cky2 小时前
深度学习·图像分割·边缘检测·sobel·roberts·边缘检测算子·prewitt
[特殊字符] Roberts、Sobel、Prewitt 边缘检测算子全对比从核心原理、卷积核、优缺点、适用场景四个维度,彻底搞懂这三个经典一阶微分边缘检测算子的区别,同时补充关键细节和实战建议。
AI医影跨模态组学2 小时前
人工智能·深度学习·机器学习·论文·医学·医学影像
ESMO Open 中国医学科学院肿瘤医院:整合影像组学、病理组学和活检适应性免疫评分预测局部晚期直肠癌远处转移01文献学习今天分享的文献是由中国医学科学院肿瘤医院(国家癌症中心/国家肿瘤临床医学研究中心)团队于2025年2月在《ESMO Open》(中科院1区top,IF=8.3)上发表的研究“Integrating radiomics, pathomics, and biopsy-adapted immunoscore for predicting distant metastasis in locally advanced rectal cancer”即结合放射组学、病理组学和活检适应性免疫评分预测局部晚期直
jay神2 小时前
人工智能·深度学习·yolo·目标检测·毕业设计
大米杂质检测数据集(YOLO格式)本数据集面向大米生产线中的异物(杂质)自动检测任务,包含5类常见混入杂质的目标检测标注,适用于基于深度学习的目标检测模型训练与评估,如YOLO系列、Faster R-CNN等主流框架。
薛定e的猫咪3 小时前
人工智能·深度学习·计算机视觉
【Neural Networks 2025】TDAG 论文解读:多智能体不是重点,动态任务分解才是关键大语言模型让 Agent 成为近两年最热门的研究方向之一,但一个核心问题始终没有被彻底解决:为什么模型看起来很聪明,一到复杂、多步骤、真实世界任务里就频繁失效?
xiaoyaohou113 小时前
网络·深度学习·机器学习
011、骨干网络改进(二):MobileNet、ShuffleNet等轻量骨干的适配上周在 Jetson Nano 上部署 YOLO 检测模型,原版 Darknet53 骨干跑起来只有 3 FPS,内存直接飙到 90%。客户要求至少 15 FPS 且功耗不能太高。试过剪枝、量化,效果都不理想,最后决定换轻量骨干。本以为把 backbone 替换成 MobileNet 就完事,结果训练时 loss 震荡,推理时漏检严重——轻量骨干的适配,远不是改个网络结构那么简单。
tobias.b4 小时前
人工智能·深度学习
李宏毅-2022-深度学习课程-2-18-深度学习基础概念下这张图片是李宏毅机器学习课程中的一页PPT,标题为 “New Model: More Features”(新模型:更多特征)。
jay神4 小时前
python·深度学习·yolo·目标检测·信息可视化·毕业设计
基于 YOLOv8 的PCB 缺陷检测系统基于 YOLOv8 目标检测算法,针对 PCB(印刷电路板)表面缺陷进行识别与分类的桌面端智能检测系统。系统覆盖从数据集构建、模型训练调优到多场景可视化检测的完整深度学习开发链路。
sp_fyf_20244 小时前
人工智能·深度学习·神经网络·机器学习·语言模型
【大语言模型】 揭秘OPD:大语言模型的长度膨胀与稳定化策略📌 文章信息 Original Title: Demystifying OPD: Length Inflation and Stabilization Strategies for Large Language Models 中文标题: 揭秘OPD:大语言模型的长度膨胀与稳定化策略
sp_fyf_20244 小时前
人工智能·深度学习·学习·语言模型·transformer
【大语言模型】OpenVLThinkerV2:面向多领域视觉任务的通用型多模态推理模型基于组的相对策略优化(GRPO)已成为驱动多模态大语言模型(MLLMs)近期进展的事实上的强化学习(RL)目标。然而,将这一成功扩展到开源的多模态通用模型仍然受到两个主要挑战的严重制约:不同视觉任务间奖励拓扑结构的极端差异性,以及在细粒度感知与多步推理能力之间取得平衡的内在困难。为了解决这些问题,我们提出了高斯GRPO(G²RPO),一种新颖的RL训练目标,它用非线性分布匹配取代了标准的线性缩放。通过数学上强制任何给定任务的优势分布严格收敛到标准正态分布𝒩(0,1),G²RPO理论上保证了任务间梯度公平
xiaoyaohou114 小时前
深度学习·计算机视觉·cnn
014、Neck结构改进(二):自适应空间特征金字塔(ASPP)的引入上周调一个车载检测模型,雨天场景的误检率突然飙升。盯着可视化特征图看了半天,发现问题出在尺度上——远处模糊的车尾和近处清晰的车头,Neck层用的普通金字塔好像有点“力不从心”。这让我想起了当年在语义分割领域常用的ASPP(Atrous Spatial Pyramid Pooling),能不能把它移植到YOLO的Neck里试试?
__Wedream__4 小时前
人工智能·深度学习·算法·计算机视觉·超分辨率重建
NTIRE 2026 Challenge on Efficient Super-Resolution——冠军方案解读NTIRE 的全称为New Trends in Image Restoration and Enhancement Challenges,即“图像复原和复原挑战中的新趋势”,是CVPR(IEEE Conference on Computer Vision and Pattern Recognition)举办的极具影响力的计算机视觉底层任务比赛,主要涉及的研究方向有:图像超分辨率、图像去噪、去模糊、去摩尔纹、重建和去雾等。
FL16238631294 小时前
人工智能·深度学习·算法
基于深度学习mediape实现人员跌倒人体姿势跌倒检测算法源码+说明文件基于深度学习mediape实现人员跌倒人体姿势跌倒检测算法本项目是一个基于深度学习和人体姿态估计的实时跌倒检测系统。通过MediaPipe姿态检测模型提取人体33个关键骨架点,结合多种算法综合判断是否发生跌倒事件,可用于老年人看护、安全监控等场景。
春末的南方城市5 小时前
人工智能·深度学习·机器学习·计算机视觉·aigc
CVPR 2026 | 复旦开源首个端到端多模态矢量动画生成框架OmniLottie:UI动效革命,文本/图像一键转Lottie动画!在UI/UX设计和前端开发领域,制作高质量的交互动画(Motion Design)一直是个痛点:设计师需要在After Effects中 painstakingly 绘制关键帧,开发人员则需要反复调整代码以还原效果,而最终的Lottie文件往往体积大、兼容性差。 由复旦OpenVGLab团队推出的OmniLottie提出了首个全能型多模态Lottie动画生成模型。它打破了传统工作流的壁垒,支持“文本生成动画”、“图像生成动画”、“草图转动画”甚至“视频风格迁移为Lottie”。OmniLottie 不仅能
_张一凡5 小时前
深度学习·ocr·文档解析·千帆ocr·rag文档解析·qianfan-ocr
【文档解析】一文学懂百度千帆OCR模型细节及本地部署百度千帆 OCR(Qianfan-OCR) 是百度千帆团队于 2026 年 3 月发布的端到端统一文档智能大模型,主打 “单模型搞定全链路文档处理”,与传统的多阶段OCR流水线(将独立的版面检测、文字识别和语言理解模块串联)不同,千帆-OCR 以4B所谓参数可执行 直接的图像到Markdown转换,并支持广泛的提示驱动任务——从结构化文档解析、表格提取,到图表理解、文档问答和关键信息抽取——全部由单一模型完成。在多项权威评测中登顶,且已开源。
sp_fyf_20245 小时前
人工智能·深度学习·学习·机器学习·语言模型·自然语言处理
【大语言模型】从失败中学习:在微调大型语言模型作为智能体时整合负例大型语言模型在作为智能体与外部环境(如搜索引擎等工具)交互方面已取得成功。然而,LLMs 在预训练或对齐阶段主要是针对语言生成而非工具使用进行优化的,这限制了它们作为智能体的有效性。为了解决这个问题,先前的工作通常先收集 LLM 与环境之间的交互轨迹,但仅使用那些成功完成任务的轨迹来微调较小的模型。这种做法使得微调数据变得稀缺,且获取数据既困难又昂贵。丢弃失败的轨迹也导致了数据和资源的大量浪费,并限制了微调过程中的潜在优化路径。
cyyt5 小时前
人工智能·深度学习
深度学习周报(4.6~4.12)目录摘要Abstarct1 文献阅读:《Coalbed methane concentration prediction and early-warning in fully mechanized mining face based on deep learning》