欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021113024979
申请人: 广东工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2025-05-20
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于改进YOLOv3的皮革瑕疵检测方法,其特征在于,所述方法包括以下步骤:构建样本皮革瑕疵图像数据集,并对数据集中的皮革瑕疵进行边框标注;

将边框标注后的样本皮革瑕疵图像数据集划分为训练集、验证集和测试集;

构建YOLOv3目标神经网络模型,基于kmeans聚类算法及标签平滑技术,改进YOLOv3目标神经网络模型;

利用训练集对改进的YOLOv3目标神经网络模型进行训练,并通过验证集验证训练中的YOLOv3目标神经网络模型的性能,得到最终训练好的YOLOv3目标神经网络模型;

基于训练好的YOLOv3目标神经网络模型,对测试集图像数据进行皮革瑕疵检测;

基于kmeans聚类算法改进YOLOv3目标神经网络模型的过程为:S101.从边框标注后的样本皮革瑕疵图像数据集中随机选定k个标注边框作为初始聚类中心,每个初始聚类中心存放皮革瑕疵中瑕疵边框的宽和高;

S102.基于交并比IoU计算数据集中的每个真实瑕疵边框x

d

其中,x

S103.利用每个聚类簇的真实瑕疵边框样本均值更新聚类中心;

S104.重复步骤S102和步骤S103,直至聚类中心不再发生变化,得到最终的聚类中心和划分的k个聚类簇;

S105.YOLOv3目标神经网络模型的检测输出层识别瑕疵时基于anchor box实现,将k个聚类簇作为anchor box新的anchor值,改进YOLOv3目标神经网络模型;

基于标签平滑技术改进YOLOv3目标神经网络模型的过程为:

设以交叉熵损失函数作为YOLOv3目标神经网络模型的预测损失,表达式为:L=-[ylogp+(1-y)log(1-p)]

其中,y表示真实值,p表示预测值;在检测瑕疵准确时,p=1,否则,p=0;

利用标签平滑技术对YOLOv3目标神经网络模型的交叉熵损失函数进行标签平滑,表达式为:y

其中,l表示瑕疵类型的总数,ε是一个介于0~1之间的常数,为惩罚参数;经标签平滑后,在检测瑕疵准确时,p=1-ε,否则,p=0。

2.根据权利要求1所述的基于改进YOLOv3的皮革瑕疵检测方法,其特征在于,所述数据集中的皮革瑕疵的类型包括:bubble气泡、dirt污渍、stripe条纹、hole孔洞、ribbon色线。

3.根据权利要求1所述的基于改进YOLOv3的皮革瑕疵检测方法,其特征在于,将样本皮革瑕疵图像数据集划分为训练集、验证集和测试集时,划分到训练集、验证集和测试集中的样本皮革瑕疵图像均通过随机抽样法从样本皮革瑕疵图像数据集中获得。

4.根据权利要求1所述的基于改进YOLOv3的皮革瑕疵检测方法,其特征在于,所述构建的YOLOv3目标神经网络模型包括Darknet-53特征提取模块、多尺度预测与特征融合模块,Darknet-53特征提取模块用于提取样本皮革瑕疵图像特征,Darknet-53特征提取模块提取样本皮革瑕疵图像特征后,将样本皮革瑕疵图像特征输出至多尺度预测与特征融合模块,多尺度预测与特征融合模块包括三个卷积层网络Convs及检测输出层,Darknet-53特征提取模块提取样本皮革瑕疵图像特征后,输出三个预测尺度的样本皮革瑕疵图像特征,三个预测尺度的样本皮革瑕疵图像特征经过三个卷积层网络Convs后,每一个卷积层网络Convs的一条分支输出为检测输出,另一条经过2倍上采样与Darknet-53特征提取模块输出的三个预测尺度的样本皮革瑕疵图像特征进行特征融合,最后通过检测输出层识别瑕疵。

5.根据权利要求4所述的基于改进YOLOv3的皮革瑕疵检测方法,其特征在于,Darknet-53特征提取模块包括依次连接的初始卷积层、第一残差单元、第二残差单元、第三残差单元、第四残差单元及第五残差单元,第一残差单元包括依次连接的第一单独卷积层及第一重复执行卷积层1x,第二残差单元包括依次连接的第二单独卷积层及第二重复执行卷积层2x,第三残差单元包括依次连接的第三单独卷积层及第三重复执行卷积层8x,第四残差单元包括依次连接的第四单独卷积层及第四重复执行卷积层8x,第五残差单元包括依次连接的第五单独卷积层及第五重复执行卷积层4x;所述初始卷积层是通道为32、size为3*3的卷积核,输入为样本皮革瑕疵图像数据集,第一重复执行卷积层1x、第二重复执行卷积层2x、第三重复执行卷积层8x、第四重复执行卷积层8x及第五重复执行卷积层4x分别重复执行1次、2次、8次、8次、4次,滤波器数量先减半,再恢复,一共是52层;多尺度预测与特征融合模块的输入包括第五重复执行卷积层4x输出的第一预测尺度Scale1样本皮革瑕疵图像特征、第四重复执行卷积层8x输出的第二预测尺度Scale2样本皮革瑕疵图像特征及第三重复执行卷积层8x输出的第三预测尺度Scale3样本皮革瑕疵图像特征。

6.根据权利要求1所述的基于改进YOLOv3的皮革瑕疵检测方法,其特征在于,利用训练集对改进的YOLOv3目标神经网络模型进行训练之前还包括对训练集、验证集及测试集的图像数据进行数据增强,数据增强方式包括颜色扩增、平移、尺度变换以及随机剪裁。

7.根据权利要求1所述的基于改进YOLOv3的皮革瑕疵检测方法,其特征在于,利用训练集对改进的YOLOv3目标神经网络模型进行训练的过程为:设置训练基本参数,选定优化器,设定最大迭代轮次N,利用梯度下降法对改进的YOLOv3目标神经网络模型进行训练,训练目标以YOLOv3目标神经网络模型的mAP精度衡量,在每一迭代轮次训练结束后,利用验证集验证训练中的YOLOv3目标神经网络模型的性能,以精准率Precision和召回率Recall衡量,在达到最大迭代轮次N时,训练结束,得到最终训练好的YOLOv3目标神经网络模型。

8.一种基于改进YOLOv3的皮革瑕疵检测系统,其特征在于,所述系统包括:图像数据集构建标注模块,用于构建样本皮革瑕疵图像数据集,对数据集中的皮革瑕疵进行边框标注;

数据集划分模块,将边框标注后的样本皮革瑕疵图像数据集划分为训练集、验证集和测试集;

目标神经网络模型构建模块,用于构建YOLOv3目标神经网络模型,基于kmeans聚类算法及标签平滑技术,改进YOLOv3目标神经网络模型;

目标神经网络模型训练模块,利用训练集对改进的YOLOv3目标神经网络模型进行训练,并通过验证集验证训练中的YOLOv3目标神经网络模型的性能,得到最终训练好的YOLOv3目标神经网络模型;

测试模块,基于训练好的YOLOv3目标神经网络模型,对测试集图像数据进行皮革瑕疵检测;

基于kmeans聚类算法改进YOLOv3目标神经网络模型的过程为:S101.从边框标注后的样本皮革瑕疵图像数据集中随机选定k个标注边框作为初始聚类中心,每个初始聚类中心存放皮革瑕疵中瑕疵边框的宽和高;

S102.基于交并比IoU计算数据集中的每个真实瑕疵边框x

d

其中,x

S103.利用每个聚类簇的真实瑕疵边框样本均值更新聚类中心;

S104.重复步骤S102和步骤S103,直至聚类中心不再发生变化,得到最终的聚类中心和划分的k个聚类簇;

S105.YOLOv3目标神经网络模型的检测输出层识别瑕疵时基于anchor box实现,将k个聚类簇作为anchor box新的anchor值,改进YOLOv3目标神经网络模型;

基于标签平滑技术改进YOLOv3目标神经网络模型的过程为:

设以交叉熵损失函数作为YOLOv3目标神经网络模型的预测损失,表达式为:L=-[ylogp+(1-y)log(1-p)]

其中,y表示真实值,p表示预测值;在检测瑕疵准确时,p=1,否则,p=0;

利用标签平滑技术对YOLOv3目标神经网络模型的交叉熵损失函数进行标签平滑,表达式为:y

其中,l表示瑕疵类型的总数,ε是一个介于0~1之间的常数,为惩罚参数;

经标签平滑后,在检测瑕疵准确时,p=1-ε,否则,p=0。