掘金 人工智能 03月31日 16:49
支持视频检测, YOLOv12 目标检测刷新速度、精度双记录
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

YOLOv12 框架凭借其创新的网络架构,在计算机视觉领域取得了突破性进展。它巧妙地融合了注意力机制和CNN的优势,实现了在速度和性能上的双重突破。YOLOv12-N和YOLOv12-S在多个指标上超越了现有模型,为实时物体检测带来了新的可能性。通过OpenBayes云平台,用户可以轻松部署和体验YOLOv12,进行图片和视频的目标检测。

🚀 YOLOv12在实时物体检测领域取得了显著进展,其网络架构融合了注意力机制的优势,在速度和性能上实现了突破。

🥇 YOLOv12-N在T4 GPU上实现了40.6%的mAP,推理延迟仅为1.64毫秒,性能优于YOLOv10-N和YOLOv11-N。

🏆 YOLOv12-S在速度上超越了RT-DETR-R18和RT-DETRv2-R18,速度提升42%,计算量降低36%,参数减少45%。

💻 通过OpenBayes云平台,用户可以轻松部署YOLOv12,体验图片和视频的目标检测功能,支持多种计费方式。

长期以来,增强 YOLO 框架的网络架构一直是计算机视觉领域的核心课题。尽管注意力机制在建模能力上表现出色,但基于 CNN 的改进仍然是主流,因为基于注意力的模型在速度上难以匹敌。然而,YOLOv12 的推出改变了这一局面!它不仅在速度上与基于 CNN 的框架相媲美,还充分利用了注意力机制的性能优势,成为实时物体检测的新标杆。

YOLOv12 的突破性表现:

    YOLOv12-N 在 T4 GPU 上以 1.64 毫秒 的推理延迟实现了 40.6% 的 mAP,比 YOLOv10-N / YOLOv11-N 高出 2.1%/1.2% 的 mAP。YOLOv12-S 击败了 RT-DETR-R18 / RT-DETRv2-R18,运行速度提高了 42%,计算量仅用了 36%,参数减少了 45%。

教程链接:go.openbayes.com/tBHzt

使用云平台:OpenBayes
openbayes.com/console/sig…

登录 OpenBayes.com,在「公共教程」页面,选择键部署 「一键部署 YOLOv12」教程。

页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

选择「NVIDIA GeForce RTX 4090」以及「PyTorch」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。可以使用文章开头的邀请链接,获得 RTX 4090 使用时长!

待系统分配好资源,当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。

该模型支持图片检测和视频检测,目标检测的输出是一组包围图像中物体的边框,以及每个边框的类标签和置信度分数。

1.图片检测

在「Input Type」一栏选择「Image」,上传一张图片,在「Model」处选择模型,默认为「yolov12m.pt」。最后点击「Detect Objects」开始检测。

2.视频检测

在「Input Type」一栏选择「Video」,上传一段视频,在「Model」处选择模型,默认为「yolov12m.pt」。最后点击「Detect Objects」开始检测。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

YOLOv12 物体检测 人工智能 OpenBayes
相关文章