1.基于深度学习的主从控制方法,其特征在于,包括:确立执行单元的运动坐标系;
建立主从映射关系,通过主从映射关系来描述所述执行单元对应的主从手的运动学正逆运算,构建主从异构型模型;
在主从关系下进行目标的实时跟踪,得到跟踪结果数据;
通过卷积神经网络进行深度学习,完成所述执行单元的控制过程。
2.根据权利要求1所述的基于深度学习的主从控制方法,其特征在于,所述“建立主从映射关系,通过主从映射关系来描述所述执行单元对应的主从手的运动学正逆运算,构建主从异构型模型”,包括:
从笛卡尔空间坐标系中建立映射关系来描述所述主从手的运动学正逆运算,运用逆雅可比矩阵进行求解;
主手末端的速度:ΔX=J(θ)·Δθ;
‑1
从手末端的速度:Δθ=J(θ) ·ΔX;
6×6
其中, 为关节角速度矢量,J(θ)∈R 为雅克比矩阵, 为末端速度矢量。
3.根据权利要求1所述的基于深度学习的主从控制方法,其特征在于,所述“在主从关系下进行目标的实时跟踪,得到跟踪结果数据”,包括:利用GOTURN算法进行目标的实时跟踪的步骤。
4.根据权利要求1所述的基于深度学习的主从控制方法,其特征在于,所述“通过卷积神经网络进行深度学习”,包括:卷积层在ImageNet上预先训练,用1e‑5的学习率训练该网络,其他超参数则取自CaffeNet的默认值;
每个训练示例会交替地取自于训练集,并利用GOTURN算法进行视频裁剪。
5.根据权利要求4所述的基于深度学习的主从控制方法,其特征在于,包括:还需要对当前帧进行随机裁剪,用额外的例子来扩充数据集。
6.根据权利要求1所述的基于深度学习的主从控制方法,其特征在于,所述“确立执行单元的运动坐标系”与所述“建立主从映射关系,通过主从映射关系来描述所述执行单元对应的主从手的运动学正逆运算,构建主从异构型模型”之间,包括:柔性测试步骤:同时驱动所述执行单元的一端进行弯曲运动来进行柔性测试,该连接端定义为远端;
确定r,L,θ,δ,d分别为线与中心轴的距离,柔性关节的长度,沿y方向的旋转角,沿z方向的旋转角,以及远端在平面xbOyb中的位置投影;
位置投影可由下式计算:
其中,dx,dy分别表示x、y轴上的位置投影,dx,dy能在手术过程中测量,柔性关节远端的姿态公式为:
将夹爪连接在所述远端,夹爪尖端的坐标为:其中,s代表刚性杆和加工弹簧之间的连接长度,Lg代表夹爪的长度;当s=0时,所述执行单元被视为可弯曲接头。
7.根据权利要求6所述的基于深度学习的主从控制方法,其特征在于,所述“柔性测试步骤”后,包括:性能测试步骤:配置提供旋转动力的驱动装置,与所述执行单元连接;
确保所述执行单元为弯曲状态,同时在所述夹持器的远端加载拉伸力,对所述执行单元进行性能测试。
8.根据权利要求1所述的基于深度学习的主从控制方法,其特征在于,所述“在主从关系下进行目标的实时跟踪,得到跟踪结果数据”中,包括:跟踪效果的平滑化步骤:首先将当前帧(c'x,c'y)中边界框的中心相对于前一帧(cx,cy)中边界框的中心进行建模:
c'x=cx+w·Δx
c'y=cy+h·Δy
其中w和h分别是前一帧的边界框的宽度和高度;Δx和y是随机变量;
同样,通过下式模拟尺寸变化:w′=w·γw
h'=h·γh
其中w'和h'是边界框的当前宽度和高度,w和h是边界框的先前的宽度和高度,γw和γh随机变量;
在训练集中,利用平均值为1的γw和γh来进行拉普拉斯分布建模,并运用所述拉普拉斯分布中提取的随机目标来扩充训练集;
所述拉普拉斯分布的比例参数为:对于边界框中心的运动: 对于边界框大小的变化:
9.根据权利要求1所述的基于深度学习的主从控制方法,其特征在于,所述“通过卷积神经网络进行深度学习”后,包括:利用PD环节来消除不断积累的主从跟随误差和消除医生手部抖动的步骤;
在“利用PD环节来消除不断积累的主从跟随误差”中:调控规律为:
其中 分别表示主、从手末端执行器位姿速度,Xm,Xs分别表示主、从手末端执行器位姿,同时kp和kd分别代表比例参数与积分参数;
在“消除医生手部抖动”中,将对主手和从手分别采用两次滑动均值滤波,具体为:Ni为滤波计算结果,n为均值数字滤波器阶数(i≥n),i为在第i次采样周期。
10.一种如权利要求1所述的基于深度学习的主从控制方法在医用柔性机器人方向上的应用。