支持视频检测, YOLOv12 目标检测刷新速度、精度双记录

长期以来,增强 YOLO 框架的网络架构一直是计算机视觉领域的核心课题。尽管注意力机制在建模能力上表现出色,但基于 CNN 的改进仍然是主流,因为基于注意力的模型在速度上难以匹敌。然而,YOLOv12 的推出改变了这一局面!它不仅在速度上与基于 CNN 的框架相媲美,还充分利用了注意力机制的性能优势,成为实时物体检测的新标杆。

YOLOv12 的突破性表现:

  • YOLOv12-N 在 T4 GPU 上以 1.64 毫秒 的推理延迟实现了 40.6% 的 mAP,比 YOLOv10-N / YOLOv11-N 高出 2.1%/1.2% 的 mAP。
  • YOLOv12-S 击败了 RT-DETR-R18 / RT-DETRv2-R18,运行速度提高了 42%,计算量仅用了 36%,参数减少了 45%。

教程链接:go.openbayes.com/tBHzt

使用云平台:OpenBayes
openbayes.com/console/sig...

登录 OpenBayes.com,在「公共教程」页面,选择键部署 「一键部署 YOLOv12」教程。

页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

选择「NVIDIA GeForce RTX 4090」以及「PyTorch」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。可以使用文章开头的邀请链接,获得 RTX 4090 使用时长!

待系统分配好资源,当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。

该模型支持图片检测和视频检测,目标检测的输出是一组包围图像中物体的边框,以及每个边框的类标签和置信度分数。

1.图片检测

在「Input Type」一栏选择「Image」,上传一张图片,在「Model」处选择模型,默认为「yolov12m.pt」。最后点击「Detect Objects」开始检测。

2.视频检测

在「Input Type」一栏选择「Video」,上传一段视频,在「Model」处选择模型,默认为「yolov12m.pt」。最后点击「Detect Objects」开始检测。

相关推荐
Peter11467178504 分钟前
服务器入门操作1(深度学习)
服务器·人工智能·笔记·深度学习·学习
新加坡内哥谈技术13 分钟前
大型语言模型Claude的“思维模式”最近被公开解剖
人工智能·语言模型·自然语言处理
Mostcow26 分钟前
数据分析_Data-Formulator-0.1.7调用Ollama-0.5问题记录
人工智能·数据挖掘·数据分析
Hali_Botebie1 小时前
【蒸馏用损失】NCEloss介绍,大规模分类任务的损失函数
人工智能·分类·数据挖掘
阿里云云原生1 小时前
RAG 调优指南:Spring AI Alibaba 模块化 RAG 原理与使用
java·人工智能·spring
蚍蜉撼树谈何易1 小时前
机器学习的定义及分类
人工智能·机器学习·分类
城电科技2 小时前
城电科技|零碳美丽示范村建设方案 能源+景观+教育
人工智能·科技·生活·能源
opentrending7 小时前
Github 热点项目 awesome-mcp-servers MCP 服务器合集,3分钟实现AI模型自由操控万物!
服务器·人工智能·github
lisw057 小时前
DeepSeek原生稀疏注意力(Native Sparse Attention, NSA)算法介绍
人工智能·深度学习·算法
whaosoft-1438 小时前
51c深度学习~合集4
人工智能