1.基于稳定逆模型的数控机床迭代学习误差补偿控制方法,其特征在于,作用于数控机床进给驱动系统,所述方法包括以下:步骤110、获取期望轨迹rd,并初始化预建立的控制模型,所述控制模型为基于稳定逆模型的数控机床迭代学习误差补偿控制模型;
所述控制模型包括实时模块以及离线模块,所述离线模块包括存储单元以及迭代学习反演计算模块ILC,所述实时模块包括误差计算单元、PID控制单元,所述离线模块通过存储单元所存储的第j-1迭代所需控制补偿量uj-1以及反馈控制误差ej-1通过迭代学习反演计算模块计算得到uj,所述实时模块通过期望轨迹rd、反馈控制误差ej以及uj计算得到实际位置yj;
步骤120、配置第0次迭代条件,即令首次控制补偿量u0=0,将所述期望轨迹rd输入所述控制模型;
步骤130、执行轨迹跟踪控制任务,并实时获取期望轨迹rd与电机端实际位置yj的反馈控制误差ej;
步骤140、判断是否存在前后两次反馈控制误差之差的最大值小于预设阈值δ,若存在则转至步骤160,若不存在则转至步骤150;
步骤150、令j=j+1,根据反馈控制误差ej以及控制补偿量uj通过离线模块计算得到第j+1迭代所需控制补偿量uj+1,返回步骤130,继续执行轨迹跟踪控制任务;
步骤160、j=j+1;uj+1=uj;继续执行轨迹跟踪控制任务直至加工任务完毕;
具体的,根据反馈控制误差ej以及控制补偿量uj通过离线模块计算得到第j+1迭代所需控制补偿量uj+1,包括,uj+1=Lq(uj+Leej) (1)
其中Le为学习滤波器,Lq为鲁棒低通滤波器,为此构造误差,ej=rd-yj
另外基于模型迭代学习控制方法的原理,需要找到一个从uj到yj数学模型H,使Le=H-1,将离散域的传递函数写成状态空间表达如下:CP(AC,BC,CC,DC),PM(Am,Bm,Cm,0),由此可以得到H的状态空间表达式H(A,B,C,D),则其中的输入和输出关系表达如下:x[k+1]=Ax[k]+Buj[k]
yj[k]=Cx[k]
其中C=[0Cm],D=0,然而D为零矩阵,不是满秩,为此对输入yj[k]做n步时延处理以实现过程,此时有,C′=CAn,
D′=CAn-1B;
由此可以得到非零的D矩阵,接着进行如下两种不同情况的处理;
情况1,当所控对象PM(z)为最小相位系统的情况,可直接通过模型逆方式计算误差补偿量,输入为ej,输出为Δuj,令公式(1)中的Δuj=Leej,则有,x[k+1]=(A-B(C′B)-1C′A)x[k]+BD′-1ej[k]Δuj[k]=D′-1C′x[k]+D′-1ej[k+n]情况2,当所控对象PM(z)为非最小相位系统的情况,将x[k]表示为其中T包含(A-B(C′B)-1C′A)的特征向量,使得从而有
其中|λ(As)|<1,且|λ(Au)|>1,即,As包含所有稳定极点,Au包含不稳定极点,稳定的状态求解如下:xs[k+1]=Asxs[k]+Bsej[k],x[-∞]=0,在时间上向前求解,以及稳定的状态求解如下:
xu[k+1]=Auxu[k]+Buej[k],x[+∞]=0,在时间上向后求解,ILC前馈控制命令补偿量可以获得为:Δuj[k]=Csxs[k]+Cuxu[k]+Dej[k],最终,可以得到下一次迭代的实际误差补偿量
uj+1[k]=Lq{uj[k]+Δuj[k]},其中k为信号序列的第k个取样点。
2.根据权利要求1所述的基于稳定逆模型的数控机床迭代学习误差补偿控制方法,其特征在于,具体的,n步时延过程包括,做1步时延,
yj[k+1]=CAx[k]+CBu[k],此时如果CB<σ,σ为一个足够小的数,接着做n步时延yj[k+n]=CAnx[k]+CAn-1Bu[k],直到CAn-1B≥σ。
3.根据权利要求2所述的基于稳定逆模型的数控机床迭代学习误差补偿控制方法,其特征在于,具体的,σ的值设置为σ=1×10-5。
4.根据权利要求1所述的基于稳定逆模型的数控机床迭代学习误差补偿控制方法,其特征在于,具体的,Lq为截止频率为110Hz的五阶Butterworth低通滤波器。
5.根据权利要求4所述的基于稳定逆模型的数控机床迭代学习误差补偿控制方法,其特征在于,具体的,预设阈值δ取值为δ=10-6mm。
6.基于稳定逆模型的数控机床迭代学习误差补偿控制系统,其特征在于,应用了权利要求1-5中任一项所述方法的步骤,所述系统包括:实时模块,包括误差计算单元、PID控制单元,用于通过期望轨迹rd、反馈控制误差ej以及uj计算得到实际位置yj离线模块,包括存储单元以及迭代学习反演计算模块ILC,用于通过存储单元所存储的第j-1迭代所需控制补偿量uj-1以及反馈控制误差ej-1通过迭代学习反演计算模块计算得到uj;
数控机床进给驱动系统,包括电机、联轴器、滚珠丝杆机构和平台机构。