yolov5正则化方法 -回复

合集下载

基于深度学习的水面无人清理船目标检测综述

基于深度学习的水面无人清理船目标检测综述

0引言水面无人艇(Unmanned Surface Vehicles ,USV )作为一种无人操作的水面舰艇,具有体积小、航速快、机动性强、模块化等特点,可用于执行危险以及不适于有人船执行的任务[1]。

其中,水面无人清理船(Unmanned Surface Cleaning Vessels ,USCV )是水面无人艇的其中一个任务分支。

相较于传统清理水面垃圾需要耗费大量的人力,水面无人清理船的应运而生不仅可以节省人工成本,同时提高清理效率。

目前国内USCV 尚未进行大规模应用,一个重要的原因就是水面目标检测算法性能不足,而精准检测目标是USCV 自主导航、智能避障、高效作业等需求的基础。

如何在保障目标检测速度的前提下提高目标检测的精度以适应复杂的水面场景,以及扩充检测目标的类别,都是水面目标识别中需要解决的问题。

USCV 用于目标检的设备主要有激光雷达和可见光相机,相较于激光雷达造价高、缺少纹理及色彩信息、能耗高等缺陷,可见光相机在目标检测领域的研究更为广泛。

———————————————————————作者简介:沈靖夫(1999-),男,辽宁鞍山人,硕士研究生,研究方向为水面图像处理技术。

基于深度学习的水面无人清理船目标检测综述A Review of Target Detection for Unmanned Surface Cleaning Ships Based on Deep Learning沈靖夫①SHEN Jing-fu ;张元良②ZHANG Yuan-liang ;刘飞跃①LIU Fei-yue ;柳淳①LIU Chun(①江苏海洋大学海洋工程学院,连云港222005;②江苏海洋大学机械工程学院,连云港222005)(①School of Ocean Engineering ,Jiangsu Ocean University ,Lianyungang 222005,China ;②School of Mechanical Engineering ,Jiangsu Ocean University ,Lianyungang 222005,China )摘要:水面目标识别对水资源环境具有重要意义。

基于YOLOv8的轻量级田间棉花品级检测

基于YOLOv8的轻量级田间棉花品级检测

基于YOLOv8的轻量级田间棉花品级检测1. 内容描述本文档旨在介绍一种基于YOLOv8的轻量级田间棉花品级检测方法。

YOLOv8是一种实时目标检测算法,具有较高的检测速度和较低的计算资源需求。

通过将YOLOv8应用于田间棉花品级检测,可以实现对棉花植株的自动、准确地识别和分级,为棉花种植和管理提供有力支持。

本文将介绍YOLOv8的基本原理和特点,以及其在田间棉花品级检测中的应用背景。

将详细介绍如何使用YOLOv8进行田间棉花品级检测的数据预处理、模型训练和优化。

通过实际案例分析,评估所提出的基于YOLOv8的田间棉花品级检测方法的有效性和可行性。

1.1 背景介绍随着人工智能技术的不断发展,计算机视觉技术在农业领域的应用逐渐增多。

田间棉花品级检测是农业生产过程中的一个重要环节,直接影响到棉花的质量评估和价格定位。

传统的棉花品级检测主要依靠人工进行,这不仅耗费大量的人力资源,而且检测效率和准确性也受到人为因素的影响。

基于深度学习的目标检测算法在农业领域的应用显得尤为重要。

YOLOv8作为当前先进的深度学习算法之一,以其快速、准确的特性被广泛应用于各种目标检测场景。

轻量级的设计使得YOLOv8在资源有限的场景下,如田间地头,也能够得到良好的运行效果。

通过构建针对棉花品级检测的模型,可以实现自动化、智能化的田间棉花品级检测,提高检测效率和准确性,降低人为因素导致的误差。

这不仅有助于提升农业生产智能化水平,也为棉花的品质控制和市场流通提供了有力的技术支持。

本研究旨在探索基于YOLOv8的轻量级田间棉花品级检测技术的可行性和实用性,以期为农业领域的智能化升级提供新的思路和方法。

1.2 研究目的与意义随着现代农业技术的发展,棉花品级的检测对于提高棉花产量和质量具有重要意义。

传统的棉花品级检测方法存在效率低、成本高、劳动强度大等问题。

本研究旨在利用YOLOv8算法开发一种轻量级的田间棉花品级检测方法,以解决上述问题。

基于改进YOLOv8的飞机检测研究

基于改进YOLOv8的飞机检测研究

基于改进YOLOv8的飞机检测研究目录一、内容综述 (2)1. 研究背景及意义 (2)2. YOLOv8模型简介 (4)二、文献综述 (4)1. 国内外飞机检测研究现状 (6)2. YOLO系列模型研究现状 (7)三、数据收集与预处理 (9)1. 数据来源及特点 (9)2. 数据预处理技术 (11)四、改进YOLOv8模型设计 (11)1. 模型架构设计思路 (12)2. 网络结构改进 (13)3. 损失函数优化 (14)五、模型训练与实验验证 (16)1. 训练环境与参数设置 (17)2. 训练数据集与测试数据集划分 (18)3. 训练结果分析 (19)4. 模型性能评估指标 (20)六、基于改进YOLOv8的飞机检测研究实现过程 (21)1. 数据准备阶段实现过程 (22)2. 模型训练阶段实现过程 (23)3. 模型测试与优化阶段实现过程 (24)七、结果与讨论 (26)一、内容综述随着深度学习技术的快速发展,目标检测算法在各领域的应用越来越广泛。

YOLO(You Only Look Once)系列算法因其高效性和实时性受到了广泛关注。

本文主要针对基于改进YOLOv8的飞机检测进行研究。

YOLOv8作为YOLO系列的最新版本,采用了更先进的深度学习模型和算法,提高了目标检测的准确率和速度。

实际应用中仍存在一些问题,如对小目标的检测性能不足、对复杂背景的适应能力有待提高等。

为了克服这些问题,本研究将对YOLOv8进行改进,以提高飞机检测的性能。

改进的方向包括:优化网络结构,提高特征提取能力;引入注意力机制,增强对关键区域的关注;结合多尺度信息,提高对不同尺寸目标的检测能力;采用数据增强技术,扩大训练数据集,提高模型的泛化能力。

通过对改进方法的深入研究和实验验证,本研究将提出一种更为有效的飞机检测方法,为航空领域的发展提供有力支持。

1. 研究背景及意义随着航空产业的迅速发展,飞机检测的重要性日益凸显。

改进YOLOv8的输电线路异物检测方法

改进YOLOv8的输电线路异物检测方法

改进YOLOv8的输电线路异物检测方法目录一、内容概括 (2)1. 背景介绍 (2)2. 研究目的和意义 (3)二、YOLOv8概述 (4)1. YOLOv8发展历程 (4)2. YOLOv8特点分析 (6)三、输电线路异物检测现状分析 (7)1. 传统检测方法概述 (8)2. 现有检测方法存在的问题 (9)四、改进YOLOv8的输电线路异物检测方法 (9)五、实施细节与关键步骤 (10)1. 硬件平台与环境搭建 (11)2. 软件平台与开发工具选择 (12)3. 具体实施步骤与流程 (14)六、性能评估与对比分析 (15)1. 性能评估指标及方法 (15)2. 与传统方法及其他算法对比 (16)3. 检测结果分析 (17)七、实际应用与案例分析 (19)1. 在输电线路异物检测中的应用 (20)2. 案例分析 (21)3. 效果展示与讨论 (22)八、总结与展望 (23)1. 研究成果总结 (24)2. 存在问题及挑战分析 (25)3. 未来研究方向与展望 (26)一、内容概括引入先进的深度学习技术,如ResNet和DenseNet,以增强模型的特征提取能力。

采用迁移学习的方法,利用在大规模数据集上预训练的模型进行微调,以提高模型的泛化能力。

针对输电线路异物的特点,设计了一种新的数据增强技术,以扩大训练数据的多样性。

1. 背景介绍随着智能化时代的快速发展,电力系统的安全性与稳定性在人们的日常生活和经济建设中起着举足轻重的作用。

而输电线路作为电力系统的关键组成部分,其运行安全直接关系到整个电网的可靠性。

输电线路异物检测是保障其安全运行的重要手段之一,传统的检测方式主要依赖于人工巡检,这种方式不仅效率低下,而且容易受天气、环境等因素影响,存在一定的安全隐患。

开发高效、准确的输电线路异物检测方法显得尤为重要。

随着计算机视觉技术的飞速发展和深度学习理论的完善,目标检测技术在各领域得到了广泛应用。

YOLO(You Only Look Once)系列算法作为目标检测领域的重要分支,以其快速、准确的检测性能受到了广泛关注。

基于改进DeepSort的行人跟踪方法研究

基于改进DeepSort的行人跟踪方法研究

doi:10.3969/j.issn.1003-3114.2023.06.018引用格式:王瑞,林志坚,陈平平.基于改进DeepSort 的行人跟踪方法研究[J].无线电通信技术,2023,49(6):1117-1124.[WANG Rui,LIN Zhijian,CHEN Pingping.Research on Pedestrain Tracking Method Based on Improved DeepSort[J].Radio Commu-nications Technology,2023,49(6):1117-1124.]基于改进DeepSort 的行人跟踪方法研究王㊀瑞,林志坚∗,陈平平(福州大学物理与信息工程学院,福建福州350108)摘㊀要:为了提升复杂场景下摄像头跟踪行人的稳定性,满足对实际行人跟踪的需求,通过YOLOv5检测器检测视频中的行人,结合改进的DeepSort 算法,对行人跟踪的方法进行研究㊂优化行人重识别网络,通过迭代深度融合(Iterative Deep Aggregation,IDA)的方式融合灰度和RGB 特征,降低了模型的误差率;改进级联匹配中余弦矩阵的计算方式,分别计算灰度特征和融合特征的余弦距离矩阵,加权得到新的余弦矩阵,减少了DeepSort 算法在跟踪时目标丢失的现象㊂实验结果表明,改进的重识别网络相对于传统DeepSort 算法中运用的八维残差网络的误差率降低6.391%㊂相对于传统的DeepSort 算法,结合了改进重识别网络和改进余弦矩阵的DeepSort 算法的多目标跟踪精度(Multiple Ob-ject Tracking Accuracy,MOTA)和平均数比率IDF1指标分别提升了0.9%和8.1%㊂关键词:行人重识别;多目标跟踪;深度学习中图分类号:TP391.41㊀㊀㊀文献标志码:A㊀㊀㊀开放科学(资源服务)标识码(OSID):文章编号:1003-3114(2023)06-1117-08Research on Pedestrain Tracking Method Based on Improved DeepSortWANG Rui,LIN Zhijian ∗,CHEN Pingping(College of Physics and Information Engineering,Fuzhou University,Fuzhou 350108,China)Abstract :In order to improve the stability of camera tracking of pedestrians in complex scenes and meet the needs of actual pedes-trian tracking,YOLOv5detector is used to detect pedestrians in videos incombination with an improved DeepSort algorithm,and pedes-trian tracking methods are studied.We optimize the pedestrian recognition network and fuse grayscale and RGB features through Itera-tive Deep Aggregation (IDA)to reduce the error rate of the model,improve calculation method of cosine matrix in cascade matching,calculate the cosine distance matrix of grayscale features and fused features separately,and obtain a new cosine matrix after weighting.Our approach reduces the phenomenon of target loss in DeepSort algorithm tracking.Experimental results show that the improved re-identification network reduces the error rate by 6.391%compared with the 8-dimensional residual network used in traditional DeepSort pared with traditional DeepSort algorithm,the DeepSort algorithm,which combines an improved re-identification network and an improved cosine matrix,has improved the Multiple Object Tracking Accuracy (MOTA)and mean ratio IDF1indicators by 0.9%and 8.1%,respectively.Keywords :pedestrian re-identification;multi target tracking;deep learning收稿日期:2023-07-220 引言随着物质生活水平的提高,人们开始对个人安全更加关注,行人跟踪可以在不同的摄像头视角或时间段内准确识别和匹配同一个行人,可以准确追踪和识别潜在威胁,有助于提高公共安全和个人安全㊂研究人员在行人跟踪算法方面致力于提升行人跟踪的准确率,减少行人丢失ID 的现象㊂近来年,研究人员在DeepSort 跟踪算法上进行了大量的研究,赵元龙等人[1]引入速度方向因素,提出一种新的代价矩阵确定方式,优化级联匹配流程,减少目标ID 切换㊂涂书琴等人[2]引入二次交并比匹配,相比较原算法的一次交并比匹配,提升了跟踪的稳定性㊂何维堃等人[3]引入Haar-like 特征匹配,反映目标的明暗变化,优化了匹配机制,增强了目标跟踪的鲁棒性㊂在DeepSort 行人重识别网络中,Kalayeh 等人[4]提出通过语义分割提取目标特征网络SP-reid,降低了数据集噪声对模型训练的影响㊂Sun 等人[5]提出了一种新的行人重识别网络PCB,对目标进行局部特征提取,将特征分成多个区域进行提取㊂黄印等人[6]提出了一种融合局部特征和全局特征的行人重识别网络㊂贺愉婷等人[7]提出一种GAN 网络,对行人重识别网络的训练集进行增强,这些方法有效的提升了行人重识别的准确率㊂以上文献的优化方法为本文的研究提供了新的思路㊂基于此,由于现有的算法和模型对复杂场景的行人跟踪还存在行人在被遮挡后目标ID 丢失㊁跟踪稳定性差的现象㊂本文采用DeepSort 跟踪算法对行人进行跟踪,采用YOLOv5[8]作为行人检测器,对DeepSort 中的行人重识别网络进行改进,在原行人重识别网络的基础上,将RGB 特征和灰度特征进行迭代深度融合(Iterative Deep Aggregation,IDA)[9],加深了特征提取网络维度㊂由于改进后的重识别网络可同时输出灰度特征和融合后的特征,在此基础上,计算灰度特征和融合后特征的最小余弦距离矩阵,进行加权处理,提出一种新的余弦距离矩阵计算方式,并通过实验验证方案的可行性㊂1㊀行人跟踪算法方案1.1㊀Deepsort 行人跟踪算法架构DeepSort [10]是一种基于深度学习的目标跟踪算法,它结合了深度学习和经典的Sort 算法,用于在视频序列中进行多目标跟踪㊂DeepSort 在Sort [11]跟踪算法的基础上,引入级联匹配,优化了跟踪性能㊂DeepSort 跟踪算法架构如图1所示㊂图1㊀DeepSort 算法流程架构Fig.1㊀DeepSort algorithm process architecture㊀㊀主要步骤如下:①采用YOLOv5检测器检测出图像中的行人,获取到目标检测框;②将目标检测框与通过上一帧卡尔曼预测的预测框进行级联匹配;③将级联匹配中匹配失败的检测框和预测框再进行一次IOU 匹配;④根据匹配的结果判断检测框和预测框是否符合条件;⑤更新目标的状态㊂1.2㊀级联匹配级联匹配是DeepSort 算法的核心部分,其流程如图2所示㊂图2㊀级联匹配流程Fig.2㊀Cascade matchingprocess㊀㊀首先根据YOLOv5模型检测出图像中的人物检测框A,通过卡尔曼滤波器[12]对上一帧目标的运动轨迹进行预测,得到预测框B㊂然后将检测框A和预测框B输入到行人重识别网络,分别提取出行人检测框和预测框的特征向量A和特征向量B㊂计算出特征向量A和特征向量B之间的最小余弦距离矩阵,最小余弦距离计算公式为:d(1)(i,j)=min{1-τT jτ(i)kτ(i)kɪR i},(1)式中:τj为第j个检测框中的特征向量,τk为跟踪器中存储的第i个特征向量㊂之后根据检测框A和检测框B计算出检测框之间的马氏距离(平方)矩阵:d(2)(i,j)=(d j-y i)T s-1i(d j-y i),(2)式中:d j为一个数据点的特征向量,y i为数据集的均值向量,s i为数据集的协方差矩阵㊂根据最小余弦距离矩阵和马氏距离矩阵构建代价矩阵:c(i,j)=(1-λ)d(1)(i,j)+λd(2)(i,j),(3)式中:λ为权重系数㊂代价矩阵用于表示每个检测到的人物框与预测的目标位置之间的匹配程度㊂根据代价矩阵通过识匈牙利算法进行最优匹配,从而关联每个检测到的人物框与其对应的预测目标㊂在级联匹配中,利用行人重别网络提取检测框和预测框的特征尤为重要,更为有效的特征提取可以改善级联匹配的结果,减少目标的匹配误差㊂传统的DeepSort算法中,提取特征的行人重识别网络为六维残差网络,结构如表1所示,输入图像经过两层卷积后,经过6个残差块,再经过批处理和L2正则化输出128维度的特征向量,简称六维残差网络㊂表1㊀六维残差网络每层输出特征尺寸Tab.1㊀Output feature size of each layer of the6-dimensional residual network㊀㊀但是由于128维度的特征向量无法提取更深层次的特征,因此广泛用于传统DeepSort算法的重识别网络采用的是八维残差网络,其网络结构如表2所示㊂在八维残差网络[11]中,输入图像经过两个卷积层一个最大池化层,后面连接8个残差网络,经过平均池化层和批处理及L2正则化后输出512维度的特征向量㊂表2㊀八维残差网络每层输出特征尺寸Tab.2㊀Output feature size of each layer of the8-dimensional residual network1.3㊀改进行人重识别网络为了更好地提取复杂场景下行人的特征,满足实际行人跟踪的需求,本文在八维残差网络的基础上改进了一种融合灰度特征的网络,网络结构如图2所示㊂改进的行人重识别网络分为两个分支,首先是RGB图像分支,其主干网络为用于DeepSort算法中的八维残差网络,RGB图像经过八维残差网络,输出512维特征,这里的八维残差网络相对于原始的八维特征提取网络去除了全连接层以及最大池化层,网络的输出为512维特征向量㊂其次是灰度图像分支,由于灰度图像是单通道图像,所以需要对灰度图像进行通道扩展,将其扩展为3通道的图像,扩展的方式是直接将单通道图像复制成3通道,灰度图像同样经过去除全连接层和最大池化层的八维残差网络,输出512维特征向量㊂之后将RGB分支残差网络和灰度分支残差网络进行特征融合,得到1792维度特征,再将1792维度特征再经过一个两层残差块,避免由于网络加深导致梯度消失的现象,再进行全局自适应均值池化层,之后连接一个1ˑ1卷积层[13]进行降维处理,最后输入到全连接层进行分类处理㊂为了更好地展示网络结构,表3展示了图像在网络中经过不同阶段后提取到的特征向量尺寸㊂图3㊀改进的行人重识别网络结构Fig.3㊀Improved pedestrian re-identification network structure表3㊀改进后行人重识别网络每层输出特征尺寸Tab.3㊀Output feature size of each layer of the improvedperson re-identification network㊀㊀由于灰度图像相对于RGB 图像只包含一个通道的信息,因此其数据量较小,并且相较于RGB 图像对于光照变化的影响更小,也因此更加稳定,同时灰度图像的边缘信息相当于RGB 图像更加明显,有助于特征信息的提取㊂参照文献[14],文中灰度图像分支的输入图像为灰度图像,由RGB 图像经过灰度转换得到㊂本文的网络采用了迭代深度融合,将两个来源不同的特征信息相结合,即灰度图像的特征和RGB 图像的特征进行迭代深度融合,特征融合提高了特征提取的鲁棒性和性能,使得网络提取的特征更加的丰富和全面,其融合的方式如图4所示㊂图4㊀特征融合过程Fig.4㊀Feature fusion process㊀㊀在特征融合过程中,RGB 分支的残差块2提取的特征为128ˑ32ˑ16,残差块3提取的特征为256ˑ16ˑ8,残差块4提取的特征为512ˑ8ˑ4㊂为了使特征融合时特征的长和宽相匹配,将残差块2提取的特征经过一个池化窗口为4ˑ4㊁步长为4的平均池化层,输出特征为128ˑ8ˑ4;残差块3提取的特征经过一个池化窗口为2ˑ2㊁步长为2的平均池化层,输出特征为256ˑ8ˑ4㊂同样,在灰度分支中,经过相同的操作,获取到128ˑ8ˑ4㊁256ˑ8ˑ4的特征,最后将6个特征进行维度上的拼接,得到1792ˑ8ˑ4的特征㊂本文改进的模型采用了灰度特征损失Loss g㊁RGB特征损失Loss r以及融合后的特征损失Loss f作为组合的损失函数来优化模型㊂为了衡量模型的预测输出与实际标签之间的差异,采用了交叉熵损失函数作为模型的损失度量,交叉熵损失[15]的计算公式如下:L=-ðni=0p(x i)log((qx i)),(4)式中:n表示一个批次行人图片总数,p(x i)表示真实概率分布,q(x i)表示预测概率分布㊂在改进的模型中,将灰度特征损失㊁RGB特征损失和融合后的特征损失分别计算,并将它们叠加在一起得到总体的损失函数,其公式如下[16]:L=Loss g+Loss r+Loss f㊂(5)通过最小化总体损失函数,改进的模型将能够优化其参数,使得预测输出更接近于实际标签,从而提高模型的性能㊂1.4㊀改进DeepSort算法余弦距离矩阵在DeepSort算法中对于人物在长期遮挡后恢复身份起着关键作用,改进的行人重识别网络可以同时输出灰度特征和融合后的特征,在此基础上利用此特性提出了一种新的余弦矩阵计算方法,新的余弦矩阵计算公式为:d(3)(i,j)=k d fusion(i,j)+(1-k)d gray(i,j),(6)式中:d gray(i,j)为灰度分支所提取的特征向量所确定的余弦矩阵,d fusion(i,j)为融合灰度特征网络提取的特征向量确定的余弦矩阵,k为比值,它是一个动态变化的值,通过每帧图像的饱和度来确定,即k等于饱和度㊂图片的饱和度是色彩模型HSV的属性之一,饱和度的取值范围为0~1,饱和度越高,代表着图片色彩更加的鲜艳,较高的色彩饱和度说明图片中的彩色占据着主要成分,较低的饱和度说明灰色和白色占主要成分㊂图片的饱和度计算公式如下:S=ðni=0p(i)/(n∗255),(7)式中:p(i)为单个像素的饱和度,n为图片的像素点个数㊂当该帧图片的饱和度较低时,说明该帧图片以灰度色彩为主,k值较低,此时d fusion(i,j)的值在确定余弦矩阵中的占比较低,d gray(i,j)的值在确定余弦矩阵中的占比较高,余弦矩阵主要以灰度特征来确定㊂当该帧图片的饱和度较高时,说明该帧图片以彩色为主,k值较高,此时d fusion(i,j)的值在确定余弦矩阵中的占比较高,d gray(i,j)的值在确定余弦矩阵中的占比较低,余弦矩阵主要以融合后的特征来确定㊂2㊀仿真实验结果与分析模型训练采用的电脑配置CPU为E5-2686V4, GPU为Tesla P48GB,内存为32GB,系统为Ubun-tu18.04.5LTS,cuda版本为11.0,pytorch版本为1.7, python版本3.8.5㊂2.1㊀数据集选取与模型训练改进的行人重识别网络使用了常见的Mar-ket1501数据集进行训练,这个数据集是行人重识别领域中最重要的之一㊂它包含了来自6个摄像头的1501名行人的图像序列,每个行人都有多张图像㊂训练集包括751个不同的ID,共有12936张图片,而测试集包括750个不同的ID,共有19732张图片,总共32668张图片㊂每个行人都有一个唯一的ID,这些ID用于识别不同行人之间的关系㊂这个数据集通常用于算法研究和性能评估㊂为了保证模型的准确性,行人重识别网络模型训练的参数保持一致模型数据输入图片统一设置为128ˑ64,初始学习率为0.01,经过20epoch后,学习率乘0.1㊂训练批次大小为64,训练周期数为80轮㊂2.2㊀评价指标本文指标采用多项指标进行评估:误差率㊁平均数比率(IDF1)[17]㊁多目标跟踪精度(Multiple Object Tracking Accuracy,MOTA)㊁帧率㊂其中,误差率的公式如下:α=1-T P+T NT P+T N+F P+F N,(8)式中:α为误差率,T P为真正例数量,T N为真负例数量,F P 为假正例数量,F N 为假负例数量;α越小,代表着模型训练的精度越高㊂多目标跟踪准确率指标是衡量多目标跟踪算法精确性方面最重要的指标,MOTA 的数值越高代表跟踪精确度越好㊂平均数比率代表被检测和跟踪的目标中获取正确的ID 的检测目标的比例,综合考虑ID 准确率和ID 召回率,代表二者的调和均值,帧率是指在图像或视频中每秒钟显示的帧数,它表示了图像或视频的连续性和平滑度㊂2.3㊀结果分析为了证明融合灰度特征后误差率的有效性,进行了一系列实验来对比不同网络的表现㊂针对特征提取使用了4种不同的网络:提取RGB 特征的六维残差网络㊁仅提取灰度特征的八维残差网络㊁提取RGB 特征的八维残差网络㊁融合了灰度和RGB 特征的改进网络㊂实验结果如图5所示,可以看出,在训练40轮后,误差率趋于稳定,模型训练收敛㊂图5㊀不同模型误差率对比Fig.5㊀Comparison of error rates of different models表4为最终的误差率,八维提取灰度特征的网络在训练过程中误差率较高,达到了39.814%㊂这表明仅使用灰度图像的信息在该任务上效果最差,可能由于丢失了彩色图像中的关键信息,导致网络难以准确地进行特征学习和匹配㊂六维和八维提取RGB 特征的网络表现相对较好,在训练过程中误差率分别为29.427%和16.644%㊂相比仅使用灰度特征,RGB 图像包含了更丰富的信息,包括颜色和纹理等,因此网络能够学到更具有判别性的特征,从而降低了误差率㊂改进的网络融合了灰度和RGB 特征,其误差率为10.253%,效果最好㊂这说明融合不同通道的信息可以充分利用灰度和彩色图像各自的优势,提高了模型的性能㊂通过融合灰度特征,网络能够更好地进行跨通道的特征组合,提高了特征的鲁棒性和区分度,从而显著地降低了误差率㊂表4㊀模型最终误差率Tab.4㊀Final error rates of the model模型误差率/%本文模型10.253八维RGB 特征模型16.644八维灰度特征模型39.814六维RGB 特征模型29.427㊀㊀本文在实验场景为地下通道的行人跟踪场景,对比了原始DeepSort 算法和优化后的DeepSort 算法的跟踪效果㊂图6展示了原始DeepSort 算法和融合灰度特征网络在191帧跟踪情况下的对比结果㊂通过对比可以观察到,相较于原始的DeepSort 算法,DeepSort +改进行人重识别网络在行人跟踪时表现出更好的性能㊂在该网络下,相同的行人ID 数值变小,这意味着减少了ID 切换的次数㊂通过改进行人重识别网络,能够更好地学习到行人的特征,提高了行人的区分度,从而降低了ID 切换的频率㊂(a )原始算法(b )改进算法图6㊀原始网络与特征融合网络跟踪效果对比Fig.6㊀Comparison of tracking effect between original net-work and feature fusion network图7展示了DeepSort +改进行人重识别网络在跟踪时前后帧的变化情况,可以观察到ID 数18和14在被遮挡后,ID 发生了切换,变成了11和1㊂虽然改进行人重识别网络在一定程度上减少了ID 切换,但仍然出现了这样的情况㊂(a )第109帧(b )第126帧图7㊀特征融合网络109帧和126帧对比效果Fig.7㊀Comparison of 109frames and 126frames offeature fusion network图8展示了DeepSort +改进行人重识别网络同时改进余弦矩阵在跟踪时前后帧的变化情况,可以看出,ID 数18和14在被遮挡后,ID 保持原样,没有发生跳转㊂这说明通过结合改进的余弦矩阵,进一步增强了行人跟踪算法的稳定性㊂(a )第109帧(b )第126帧图8㊀特征融合网络加改进余弦距离109帧和126帧对比效果Fig.8㊀Feature fusion network plus improved cosine distance109frame and 126frame comparison effect基于上述地下通道场景,自行构建了数据集㊂为了保证不同算法性能提升的有效性,所有的算法对比都为该数据集,对比算法结果如表5所示㊂实验结果表明,改进了行人重识别网络和余弦矩阵的DeepSort 算法有效增强了行人跟踪的稳定性和准确性㊂表5㊀DeepSort 算法结合模型性能指标Tab.5㊀DeepSort algorithm combined with modelperformance indicators算法MOTA /%IDF1/%帧率Sort [11]59.852.610.4StrongSort [18]73.867.5 5.8DeepSort [10]79.061.610.2DeepSort +改进行人重识别网络79.866.3 6.5DeepSort +改进行人重识别网络+改进余弦矩阵79.969.73.03 结束语本文通过采用YOLOv5检测器结合改进的DeepSort 算法,对复杂场景下的行人跟踪进行了研究,旨在提高跟踪的稳定性并满足实际需求㊂为了优化行人重识别网络,采用了迭代深度融合的方法,将灰度和RGB 特征进行融合,从而降低了模型的误差率㊂此外,通过改进级联匹配中余弦矩阵的计算方式,分别计算灰度特征和融合特征的余弦矩阵,并加权得到新的余弦矩阵,有效减少了DeepSort 算法在跟踪过程中目标丢失的问题㊂实验结果显示,相对于传统的DeepSort 算法中使用的八维残差网络,改进的重识别网络使误差率降低了6.391%㊂而与传统的DeepSort 算法相比,结合了改进的重识别网络和改进的余弦矩阵的DeepSort 算法在多目标精度和平均数比率指标上分别提升了0.9%和8.1%㊂这些结果表明,本文提出的方法在行人跟踪方面取得了显著改进㊂通过优化行人重识别网络和改进余弦矩阵计算方式,成功地提高了跟踪的准确性和稳定性㊂这对于许多实际应用场景,如视频监控㊁智能交通系统等具有重要的意义㊂未来的研究可以进一步探索其他的改进方法,以进一步提升行人跟踪算法的性能,并将其应用于更广泛的领域㊂参考文献[1]㊀赵元龙,单玉刚,袁杰.改进YOLOv7与DeepSort 的佩戴口罩行人跟踪[J].计算机工程与应用,2023,59(6):221-230.[2]㊀涂淑琴,刘晓龙,梁云,等.基于改进DeepSort的群养生猪行为识别与跟踪方法[J].农业机械学报,2022,53(8):345-352.[3]㊀何维堃,彭育辉,黄炜,等.基于DeepSort的动态车辆多目标跟踪方法研究[J/OL].汽车技术:1-7(2023-04-10)[2023-07-18].https:ʊ/kcms2/arti-cle/abstract?v=A67obWUfw0kvQWktj0hrspJOLxd2Ul6OR_GOY9jV6blY46LhOS-JK2MB2ZVIQfFrhudHIPV53q4Q1NQfwycBfFeeg35JC78k1TH2qUB_72Eh659sisVErFRwVq7s0ydylN5b2pOhAEY=&uniplatform=NZKPT&language=CHS.[4]㊀KALAYEH M M,BASARAN E,GÖKMENM,et al.Hu-man Semantic Parsing for Person Re-identification[C]ʊProceedings of the IEEE Conference on Computer Visionand Pattern Recognition.Salt Lake City:IEEE,2018:1062-1071.[5]㊀SUN Y,ZHENG L,YANG Y,et al.Beyond Part Models:Person Retrieval with Refined Part Pooling(and a StrongConvolutional Baseline)[C]ʊProceedings of the Euro-pean Conference on Computer Vision(ECCV).Berlin:Springer,2018:480-496.[6]㊀黄印,周军,梅红岩,等.基于特征融合的遮挡行人重识别方法[J].计算机仿真,2023,40(2):223-227. [7]㊀贺愉婷,车进,吴金蔓.目基于YOLOv5和重识别的行人多标跟踪方法[J].液晶与显示,2022,37(7):880-890.[8]㊀JOCHER G,CHAURASIA A,STOKEN A,et al.Ultraly-tics/YOLOv5:v7.0-YOLOv5Sota Realtime Instance Seg-mentation[EB/OL].(2022-11-22)[2023-07-18].https:ʊ/records/7347926.[9]㊀YU F,WANG D,SHELHAMER E,et al.Deep LayerAggregation[C]ʊProceedings of the IEEE Conference onComputer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:2403-2412.[10]WOJKE N,BEWLEY A,PAULUS D.Simple Online andRealtime Tracking with a Deep Association Metric[C]ʊ2017IEEE International Conference on Image Processing(ICIP).Beijing:IEEE,2017:3645-3649.[11]BEWLEY A,GE Z,OTT L,et al.Simple Online and Real-time Tracking[C]ʊ2016IEEE International Conferenceon Image Processing(ICIP).Phoenix:IEEE,2016:3464-3468.[12]KALMAN R E,BUCY R S.New Results in Linear Filte-ring and Prediction Theory[J].Journal of Basic Engineer-ing,1961,83:95-108.[13]YAO H,ZHANG S,HONG R,et al.Deep RepresentationLearning with Part Loss for Person Re-identification[J].IEEE Transactions on Image Processing,2019,28(6):2860-2871.[14]姜国权,肖禛禛,霍占强.融合RGB与灰度图像特征的行人再识别方法[J].计算机工程,2021,47(4):226-233.[15]张勃兴,马敬奇,张寿明,等.利用全局与局部关联特征的行人重识别方法[J].电子测量与仪器学报,2022,36(6):205-212.[16]邓杰,董艳秋,王旭智,等.基于特征聚合与Reid嵌入的行人搜索[J].工业控制计算机,2022,35(11):87-89.[17]RISTANI E,SOLERA F,ZOU R,et al.Performance Mea-sures and a Data Set for Multi-target,Multi-camera Track-ing[C]ʊEuropean Conference on Computer Vision.Cham:Springer,2016:17-35.[18]DU Y,ZHAO Z,SONGY,et al.Strongsort:Make DeepsortGreat Again[J/OL].(2023-01-31)[2023-07-18].https:ʊ/document/10032656.作者简介:王㊀瑞㊀男,(1999 ),硕士研究生㊂主要研究方向:嵌入式AI㊂(∗通信作者)林志坚㊀男,(1984 ),博士,副教授,硕士生导师㊂主要研究方向:FPGA㊁5G/6G无线通信㊁AI㊂陈平平㊀男,(1986 ),博士,教授,博士生导师㊂主要研究方向:面向下一代通信技术和工业互联网的数据传输与智能分析㊂。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

yolov5正则化方法 -回复
正则化是一种用于解决机器学习模型过拟合问题的技术。在目标检测任务
中,为了提高模型的泛化能力和抵抗过拟合,研究人员提出了不同的正则
化方法。其中,yolov5是一种基于YOLO(You Only Look Once)系列
算法的最新版本,吸收了前代算法的优点并进行了改进。本文将逐步解释
yolov5中使用的正则化方法,并深入分析其作用和效果。

一、引言
引言部分首先介绍yolov5的背景和目标检测任务的挑战,简要阐述正则
化在解决过拟合问题中的重要性。接着对文章的结构和内容进行概述,为
读者提供一个整体的框架。

二、YOLO系列算法简介
本部分将简要介绍YOLO系列算法的发展历程,阐述其在目标检测任务中
的应用优势,包括实时性和高准确率。同时解释算法基本原理,如将目标
检测问题转化为回归问题和使用anchor boxes来预测目标框。

三、yolov5的正则化方法
3.1 数据增强
数据增强是一种常用的正则化方法,通过对训练集进行随机变换和处理,
增加了样本的多样性,提高了模型的泛化能力。本部分将详细介绍yolov5
中使用的数据增强方法,如随机缩放、随机翻转和图像增强等。
3.2 Batch Normalization
Batch Normalization(BN)是一种常见的正则化方法,在深度学习模型
中广泛应用。本节将解释yolov5中使用的BN方法的原理和作用,包括
在每个batch中对数据进行标准化,减少内部协变量偏移和对网络中间层
进行归一化等。

3.3 Dropout
Dropout是一种常用的正则化方法,通过在模型中随机“丢弃”一些神经
元的输出,减少过拟合问题。本节将详细介绍yolov5中使用的Dropout
方法的原理和效果,以及在网络中的具体应用方法。

3.4 权重衰减
权重衰减是一种常见的正则化方法,通过对模型的权重进行约束来减少过
拟合问题。本节将介绍yolov5中使用的权重衰减方法的原理和实现方式,
如在损失函数中添加正则化项和使用L1正则化和L2正则化等。

3.5 Soft-NMS
Soft-NMS是一种改进的非极大值抑制算法,用于解决检测结果中多个重
叠目标框的问题。本节将详细介绍yolov5中使用的Soft-NMS方法的原
理和作用,以及其在目标检测任务中的效果和性能。
四、实验与结果
本部分将介绍yolov5在目标检测数据集上的实验结果。通过对比实验和
分析结果,验证yolov5中使用的正则化方法的有效性和性能提升。

五、讨论与总结
本节将对yolov5中使用的正则化方法进行总结和讨论。对实验结果进行
分析,阐述正则化方法对模型泛化能力和抵抗过拟合的作用。同时,对
yolov5的不足和可以改进的地方进行探讨,并展望未来正则化方法在目标
检测任务中的发展趋势。

六、参考文献
文章最后列出参考文献,以便读者深入了解相关领域的研究和发展动态。

通过上述步骤,本文将逐步介绍yolov5中使用的正则化方法,并对每种
方法的原理、作用和效果进行详细解释。从而帮助读者更好地理解yolov5
算法及其在目标检测任务中的应用。

相关文档
最新文档