惊雷无声 发表于 2025-4-1 18:09:53

支持视频检测, YOLOv12 目标检测刷新速度、精度双记载

长期以来,增强 YOLO 框架的网络架构一直是盘算机视觉领域的焦点课题。尽管留意力机制在建模能力上表现精彩,但基于 CNN 的改进仍然是主流,由于基于留意力的模型在速度上难以匹敌。然而,YOLOv12 的推出改变了这一局面!它不但在速度上与基于 CNN 的框架相媲美,还充实使用了留意力机制的性能优势,成为实时物体检测的新标杆。

YOLOv12 的突破性表现:


[*]YOLOv12-N 在 T4 GPU 上以 1.64 毫秒 的推理延迟实现了 40.6% 的 mAP,比 YOLOv10-N / YOLOv11-N 高出 2.1%/1.2% 的 mAP。
[*]YOLOv12-S 击败了 RT-DETR-R18 / RT-DETRv2-R18,运行速度进步了 42%,盘算量仅用了 36%,参数减少了 45%。
教程链接:https://go.openbayes.com/tBHzt


使用云平台:OpenBayes
http://openbayes.com/console/signup?r=sony_0m6v

登录 http://OpenBayes.com,在「公共教程」页面,选择键部署 「一键部署 YOLOv12」教程。

https://i-blog.csdnimg.cn/direct/bb3e1d7db64d47eebf236054b009eef1.png
页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

https://i-blog.csdnimg.cn/direct/d34e9fe90ce44568b635662db1ce988e.png
选择「NVIDIA GeForce RTX 4090」以及「PyTorch」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。可以使用文章开头的约请链接,获得 RTX 4090 使用时长!

https://i-blog.csdnimg.cn/direct/3b3b168f43cc48429827373c8e9a41ec.png

https://i-blog.csdnimg.cn/direct/41cb6fe86685477891dfa116c26d7855.png
待系统分配好资源,当状态变为「运行中」后,点击「API 地点」边上的跳转箭头,即可跳转至 Demo 页面。

https://i-blog.csdnimg.cn/direct/44459491ab2a4eae87359f059906f183.png

https://i-blog.csdnimg.cn/direct/5a3a9399aedc48d2aa4c61a49963e22e.png
该模型支持图片检测和视频检测,目标检测的输出是一组困绕图像中物体的边框,以及每个边框的类标签和置信度分数。
1.图片检测
在「Input Type」一栏选择「Image」,上传一张图片,在「Model」处选择模型,默认为「yolov12m.pt」。末了点击「Detect Objects」开始检测。

https://i-blog.csdnimg.cn/direct/8c01b8011a9144f2895524f773e2384d.png

https://i-blog.csdnimg.cn/direct/d273122200414afdbc017ca29d97e620.png
2.视频检测
在「Input Type」一栏选择「Video」,上传一段视频,在「Model」处选择模型,默认为「yolov12m.pt」。末了点击「Detect Objects」开始检测。

https://i-blog.csdnimg.cn/direct/fe07f74d9b714aa28e2043c8d8aba552.png
 

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 支持视频检测, YOLOv12 目标检测刷新速度、精度双记载