支持视频检测, YOLOv12 目标检测刷新速度、精度双记录

长期以来,增强 YOLO 框架的网络架构一直是计算机视觉领域的核心课题。尽管注意力机制在建模能力上表现出色,但基于 CNN 的改进仍然是主流,因为基于注意力的模型在速度上难以匹敌。然而,YOLOv12 的推出改变了这一局面!它不仅在速度上与基于 CNN 的框架相媲美,还充分利用了注意力机制的性能优势,成为实时物体检测的新标杆。

YOLOv12 的突破性表现:

  • YOLOv12-N 在 T4 GPU 上以 1.64 毫秒 的推理延迟实现了 40.6% 的 mAP,比 YOLOv10-N / YOLOv11-N 高出 2.1%/1.2% 的 mAP。
  • YOLOv12-S 击败了 RT-DETR-R18 / RT-DETRv2-R18,运行速度提高了 42%,计算量仅用了 36%,参数减少了 45%。

教程链接:go.openbayes.com/tBHzt

使用云平台:OpenBayes
openbayes.com/console/sig...

登录 OpenBayes.com,在「公共教程」页面,选择键部署 「一键部署 YOLOv12」教程。

页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

选择「NVIDIA GeForce RTX 4090」以及「PyTorch」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。可以使用文章开头的邀请链接,获得 RTX 4090 使用时长!

待系统分配好资源,当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。

该模型支持图片检测和视频检测,目标检测的输出是一组包围图像中物体的边框,以及每个边框的类标签和置信度分数。

1.图片检测

在「Input Type」一栏选择「Image」,上传一张图片,在「Model」处选择模型,默认为「yolov12m.pt」。最后点击「Detect Objects」开始检测。

2.视频检测

在「Input Type」一栏选择「Video」,上传一段视频,在「Model」处选择模型,默认为「yolov12m.pt」。最后点击「Detect Objects」开始检测。

相关推荐
风象南2 小时前
我把大脑开源给了AI
人工智能·后端
Johny_Zhao4 小时前
OpenClaw安装部署教程
linux·人工智能·ai·云计算·系统运维·openclaw
飞哥数智坊4 小时前
我帮你读《一人公司(OPC)发展研究》
人工智能
冬奇Lab8 小时前
OpenClaw 源码精读(3):Agent 执行引擎——AI 如何「思考」并与真实世界交互?
人工智能·aigc
没事勤琢磨10 小时前
如何让 OpenClaw 控制使用浏览器:让 AI 像真人一样操控你的浏览器
人工智能
用户51914958484510 小时前
CrushFTP 认证绕过漏洞利用工具 (CVE-2024-4040)
人工智能·aigc
牛马摆渡人52810 小时前
OpenClaw实战--Day1: 本地化
人工智能
前端小豆10 小时前
玩转 OpenClaw:打造你的私有 AI 助手网关
人工智能
BugShare10 小时前
写一个你自己的Agent Skills
人工智能·程序员
机器之心11 小时前
英伟达护城河被AI攻破,字节清华CUDA Agent,让人人能搓CUDA内核
人工智能·openai