欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019114223116
申请人: 浙江工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2023-12-11
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于YOLOv3改进的交通标志检测与识别方法,其特征在于,包括以下步骤:(1)获取和标注交通标志图像数据集,作为训练集;

(2)构建YOLOv3改进网络模型;

(3)通过训练集对所述的YOLOv3改进网络模型进行训练;

(4)通过训练好的YOLOv3改进网络模型对待测交通标志图像进行检查与识别。

2.根据权利要求1所述的基于YOLOv3改进的交通标志检测与识别方法,其特征在于,采用CTSD数据集作为训练集,将CTSD数据集的格式修改为符合YOLO网络的输入格式。

3.根据权利要求1所述的基于YOLOv3改进的交通标志检测与识别方法,其特征在于,步骤(2)中包括:将YOLO网络模型原有的Darknet53网络替换为Mobilenetv2网络;从Mobilenetv2网络中提取三层特征图,通过Inv_res2net_block对三层特征图进一步提取特征,然后进行上采样与原有特征进行融合,作为新的候选特征;再使用NAS-FPN结构对新的候选特征进行进一步的特征融合;

采用GIoU改进损失函数。

4.根据权利要求3所述的基于YOLOv3改进的交通标志检测与识别方法,其特征在于,步骤(2)中包括:步骤(2)中包括:

(2-1)将YOLO网络模型原有的Darknet53网络替换为Mobilenetv2网络;

(2-2)依次从MobilenetV2结构中提取下采样倍数分别为8、16、32的特征图:Route_1、Route_2和Route_3;使用Inv_res2net_block从Route_1、Route_2和Route_3中进一步特征提取,再进行上采样操作,获得融合后的特征C3、C4和C5;

(2-3)对特征C5进行卷积操作后,获得特征C6和C7;

(2-4)将特征C3、C4、C5、C6和C7作为输入,通过NAS-FPN结构进行更深层次的融合,选取对应着下采样倍数为8、16、32的特征图p3、p4和p5作为预测的输出;

(2-5)采用GIoU损失替换YOLO网络模型原有的定位损失函数;

IoU表达式为:

GIoU表达式为:

其中:A、B为任意凸形,C为可以包含A、B在内的最小的封闭形状;

GIoU损失表达式为:

LGIoU=1-GIoU。

5.根据权利要求4所述的基于YOLOv3改进的交通标志检测与识别方法,其特征在于,步骤(2-4)中,通过NAS-FPN结构进行更深层次的融合,选择13×13、26×26、52×52作为三个输出特征图;网络重复次数设置为7。

6.根据权利要求1~5任一项所述的基于YOLOv3改进的交通标志检测与识别方法,其特征在于,步骤(2)还包括:采用k-means++算法对训练集数据的标注信息进行聚类,获得所需的anchor值。

7.根据权利要求1所述的基于YOLOv3改进的交通标志检测与识别方法,其特征在于,步骤(3)中,采用momentum动量算法进行训练,同时采用warm up策略防止梯度爆炸。

8.根据权利要求1或7所述的基于YOLOv3改进的交通标志检测与识别方法,其特征在于,步骤(3)中,采用多尺度训练策略以及mix up和/或randomcrop数据增强方法进行训练。