欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2022115651457
申请人: 广东工业大学
专利类型:发明专利
专利状态:授权未缴费
专利领域: 计算;推算;计数
更新日期:2025-07-25
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于深度学习的多人人体姿态估计方法,其特征在于,包括:将图像输入特征提取网络获得多人人体关键点热力图;

解码关键点热力图获得多人人体所有关键点位置信息;

对每个关键点进行聚类操作,将同一人的关键点划为一类;

结合每个人的关键点位置信息得到图像中每个人的姿态;

所述将图像输入特征提取网络获得多人人体关键点热力图之前,还包括训练特征提取网络:通过训练尺度因子s,自适应调节高斯核标准差,生成带有尺度化的热力图用于训练过程中的监督信息,其中根据关键点位置信息和尺度因子生成热力图的公式如下:;

i、j代表热力图中的横纵坐标,p代表第p个人,k代表第k个关键点,、分别代表第p个人的第k个关键点的横纵坐标位置,σ0代表初始的高斯核标准差,s为尺度因子;

对预测的尺度图增加一个正则化损失,如下式所示:;

代表只保留高斯核覆盖的区域,;

总体的损失函数为热力图的L2损失加上尺度图的正则化损失,如下式所示:;

其中P为真值热力图,H为模型预测的热力图,为正则化损失的权重;

所述对每个关键点进行聚类操作,将同一人的关键点划为一类包括:每一个关键点都分配一个标签来指示聚类的分配,同一个人的所有关键点的标签值的间距小,而不同的人的关键点之间的标签值差距大,其损失函数如下式所示:;

上式中N代表图像内人的数量,代表第n个人的第k个关键点的标签值热力图在像素位置x处的标签值,代表第n个人各个关节点标签值的平均值,k代表第k个关键点,n代表图像中的第n个人,n’代表除第n个人以外的其他人。

2.根据权利要求1所述的一种基于深度学习的多人人体姿态估计方法,其特征在于,所述解码关键点热力图获得多人人体所有关键点位置信息包括:解码公式:

式中m代表热力图中极大值点的坐标,、分别代表热力图在m点处的二阶导和一阶导,μ为最终的人体关键点位置坐标。