欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 2023115094388
申请人: 南通大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2026-04-08
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于改进的YOLOv5的建筑工地安全帽检测方法,其特征在于,包括以下步骤:S1、样本数据采集

(1)通过下载公开数据集、利用网络爬虫工具技术获取关于建筑工地施工现场安全帽相关的数据,以及从监控视频中截取的有效样本的视频帧,制作安全帽数据集;

(2)使用LabelImg的目标检测标注工具对数据集图片进行标注,标注的类包括安全帽和人两类;其中,安全帽标注区域包括脖子以上的头部及安全帽;标注完成后,形成xml格式的标签文件,存放在Annotations文件夹中,构成voc格式或xml文件的数据集;

(3)将标签文件由voc格式转为YOLO数据集标签文件格式,并按照9:1的比例将数据划分为训练集和验证集;

S2、在Neck网络中使用AFPN结构代替FPN结构

原始YOLOv5中的FPN使用自上而下的方式将低层特征转移到高层特征,以实现不同层特征的融合,由于高层特征不会与低层特征融合,导致非相邻层次间的语义差距加大,使用渐进特征金字塔网络AFPN代替FPN;

S3、采用Slide Loss替换BCE-loss

由于安全帽的大量样本图片中,容易样本数量相当大,难样本相对稀疏,采用SlideLoss损失函数代替交叉熵损耗函数;

S4、边界框回归损失函数替换

现有的边界框回归损失函数在预测框和实际标注框具有相同的宽高比,但宽度和高度值完全不同的情况下无法进行优化,使用MPDIoU代替CIOU,其中包含了现有损失函数中考虑的所有因素,包括重叠或非重叠面积、中心点距离以及高度和宽度的偏差;

S5、利用安全帽数据集对改进的YOLOv5网络模型进行训练,得到训练后的模型,再将待检测图像和视频输入训练好的模型中进行推理预测,得到工人是否佩戴安全帽的结果;

所述步骤S2中,AFPN的架构是在主干自底向上的特征提取过程中,在初始阶段通过结合两个不同分辨率的低层特征来启动融合过程,然后融合深层特征,最后融合主干的高层特征,在多级特征融合过程中,使用自适应空间融合操作ASFF为不同层的特征分配不同的空间权重,增强关键层的重要性,抑制不同层次特征之间的信息矛盾,特征融合表达式为:式中,

所述步骤S3中,x'代表了对未来目标的概率预测,Slide Loss损失函数(f(x))首先通过参数μ将样本分为正样本和负样本,小于μ的作为负样本,大于μ的作为正样本;然后,通过加权函数来强调边界处的样本,为困难的样本重新分配了更高的权重,使得训练得到的模型将更多的注意力集中到难样本、错误分类的样本上,Slide Loss函数的表达式为:式中,x为边界框的IoU值,阈值μ为所有边界框的IoU值的平均值,f(x)为Slide Loss的值,e为自然对数的底数;

所述步骤S4中,MPDIoU回归损失函数的表达式为:

L

式中,B

2.根据权利要求1所述的基于改进的YOLOv5的建筑工地安全帽检测方法,其特征在于,所述步骤S3中,基于交叉熵损耗函数改进了Slide Loss损失函数,其中,交叉熵损耗函数L为:式中,x为采样类的真数值,x'为激活函数所得,x'∈(0,1),ln是以无理数e为底的对数。