基于YOLOv5的行人检测系统

若需要完整工程源代码,请私信作者

目标检测在计算机视觉领域中的重要性,特别是在人群流量监测方面的应用。其中,YOLO(You Only Look Once)系列算法在目标检测领域取得了显著的进展,从YOLO到YOLOv5的发展历程表明其在算法性能上的不断优化。文中提到了基于YOLOv5设计的人口密度检测系统,该系统通过深度学习算法对人群进行检测和计数,主要应用于商场、路口等需要控制人流的场所。

系统通过YOLOv5算法实现人群检测和计数,具体使用Python实现了该算法,并通过PyQt创建了用户界面,实现了对行人数目和人群密度的监测。该系统可以处理图片、视频以及摄像设备得到的图像,自动标记和记录检测结果。初始界面如下图:

基于YOLOv5的行人检测系统_第1张图片

(一)系统介绍

        基于深度学习的花卉检测与识别系统主要用于常见行人的智能识别,对于采集到的花卉图像,基于深度学习技术识别多种不同的行人,在图像中标记行人检测框和对应类别,以帮助人们辨认和识别行人;软件能有效识别相机拍摄的图片、视频等文件,准确检测区域并记录识别结果在界面表格中方便查看;支持开启摄像头设备实时检测和统计画面中的行人,支持结果记录、展示和保存,对各类型行人数目实时可视化显示。

(二)技术特点

         (1)训练YoloV5算法识别花卉,模型支持更换;
         (2)摄像头实时检测行人图像,展示、记录和保存识别结果;
         (3)检测图片、视频等图像中的花朵位置等;
         (4)支持用户登录、注册,检测结果可视化功能;

(三)选择图片识别

        系统允许选择图片文件进行识别,点击图片选择按钮图标选择图片后,显示所有识别的结果,可通过下拉选框查看单个结果,以便具体判断某一特定目标。

(四)视频识别效果展示

        很多时候我们需要识别一段视频中的行人,这里设计了视频选择功能。点击视频按钮可选择待检测的视频,系统会自动解析视频逐帧识别多个行人,并将行人的分类结果记录在右方表格中 。

(五)摄像头检测效果展示
        在真实场景中,我们往往利用摄像头获取实时画面,同时需要对行人进行识别,因此本文考虑到此项功能。如下图所示,点击摄像头按钮后系统进入准备状态,系统显示实时画面并开始检测画面中的花卉

数据集的获取与处理

在日常生活中,由于行人的不一致性、尺度大小变化等情况,行人检测面临较大的挑战。为了有效解决这些问题,作者采用基于深度学习的方法进行行人检测。本文的主要目标是针对公共场合中人口较为密集的情境,进行行人个数的估计,并进一步估计人口密度。为了应对复杂情况,作者使用了公共数据集和自制数据集,用于训练和测试模型,并通过可视化方法对模型的效果进行评估。这一研究旨在应对实际场景中行人检测的挑战,提供对人口密度进行可靠估计的解决方案。

 数据集采集

在大多数公开数据集中,行人的种类相对较为单一,难以满足密集型行人检测的需求。由于在实际场景中,个人采集数据相对困难,因此作者通过在百度上搜索并整理图片,并进行人为标注,成功创建了一个自制数据集。该自制数据集包含了更为多样化的行人图像,旨在更好地满足密集型行人检测的训练和测试需求。在本论文中,作者将自制数据集与公开数据集进行统一使用,用于模型的全面训练和测试。这一方法旨在提高模型的泛化性能,使其更适用于真实场景中的行人检测任务。

数据集处理

本文针对行人种类,各种大小的行人,处于站立、行走等,下图是示例图片,对效果进行可视化。此数据集采用平常的生活场景的行人图片如图3-1,图3-2。

基于YOLOv5的行人检测系统_第2张图片

行人图片1

基于YOLOv5的行人检测系统_第3张图片

 行人图片2

公共数据集和自制数据集的处理过程,主要包括对VOC格式数据集的划分、转化为YOLO格式数据集,以及自制数据集的标注、格式转换和数据增强过程。

  1. 对VOC格式数据集的处理:

    • 数据集为VOC格式,包含Annotations文件夹和JPEGImages文件夹。
    • Annotations中存放XML文件,包含图片宽高、物体种类、框的坐标信息。
    • JPEGImages存放所有XML文件对应的图片。
    • 针对公共数据集,需要进行训练集和验证集的划分。
    • 转化为YOLO格式数据集,即生成对应的txt文件,包含物体标签和边界框坐标信息。
  2. 自制数据集的处理:

    • 自制数据集使用Labelme软件进行标注,生成JSON格式数据,包含物体标签和边界框的坐标信息。
    • JSON数据转换为txt格式,存放在Annotations文件夹中,对应的原图像存放在JPGImages文件夹。
    • 80%的图像用于训练,20%用于测试,以验证模型的性能。
  3. 数据增强过程:

    • 为了提高模型的泛化性能,采用数据增强方法对行人检测数据集进行扩展。
    • 数据增强方法包括亮度调节、缩放、翻转和Mosaic。
    • 通过对图像进行变换,扩充数据集,以提高模型对不同场景和变化的适应能力。

数据增强策略

具体方法

亮度调整

将原始图片的亮度提高或降低10%

缩放

将原始图像中行人目标放大或缩小10%

翻转

将原始图像水平翻转

Mosaic

将四张图片随机进行翻转、缩放、色域变化后,并且按照四个方向位置摆好,进行图片的组合和框的组合

 数据增强实现方法

(二)基于YoloV5的识别系统

         

在解决目标检测中仅使用分类网络而无法实现目标定位的问题。为了解决这一问题,文中选择了基于YOLOv5的目标检测网络,以实现对花进行定位和类别检测。YOLOv5具有方便的调用、训练和预测过程,并且提供了不同参数数量和网络大小的版本,以适应不同设备和应用场景的需求。

作者在文章中提到了通过在cmd终端中运行train.py进行训练,并附上了训练过程中的结果截图。在深度学习中,观察损失函数下降曲线通常是了解模型训练情况的一种方式。YOLOv5训练时涉及三个主要方面的损失:矩形框损失(box_loss)、置信度损失(obj_loss)和分类损失(cls_loss)。在训练结束后,统计图可以在logs目录下找到。文章通过展示博主训练行人识别模型时的训练曲线图来说明这一点。这些信息有助于评估模型在训练过程中的性能表现。

 

基于YOLOv5的行人检测系统_第4张图片

在目标检测中常用的两个性能评估指标,即召回率(recall)和精度(precision)。这两个指标都是介于0到1之间的数值,表示模型在不同方面的性能。召回率和精度越接近1,模型性能越好;越接近0,性能越差。为了综合评估目标检测的性能,通常采用均值平均密度(mean average precision,mAP)来进一步评估模型的好坏。

在计算mAP时,可以通过设定不同置信度的阈值,得到模型在不同阈值下计算出的精度和召回率。一般来说,精度和召回率存在负相关关系。通过绘制精度-召回率曲线,其中曲线下的面积被称为AP(average precision),每个目标都有一个相应的AP值。对所有目标的AP值求平均,得到模型的mAP值,从而全面评估目标检测模型在不同条件下的性能表现。这种评估方法有助于更全面地了解模型的鲁棒性和泛化能力。

基于YOLOv5的行人检测系统_第5张图片

结束语

         由于博主能力有限,博文中提及的方法即使经过试验,也难免会有疏漏之处。希望您能热心指出其中的错误,以便下次修改时能以一个更完美更严谨的样子,呈现在大家面前。同时如果有更好的实现方法也请您不吝赐教。

        若需要完整工程源代码,请私信作者

你可能感兴趣的:(深度学习,#,目标检测,游戏,音视频,深度学习,人工智能)