欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 201610086848X
申请人: 江南大学
专利类型:发明专利
专利状态:已下证
专利领域: 控制;调节
更新日期:2023-10-15
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种二维运动移动机器人的迭代学习轨迹跟踪控制及其鲁棒优化方法,其特征包括:构建移动机器人离散非线性系统动力学方程;设计常规P型开闭环迭代学习控制器;鲁棒迭代学习轨迹跟踪控制算法的收敛性分析;进一步优化鲁棒迭代学习轨迹跟踪控制器;

系统输出误差的鲁棒单调性分析;给出鲁棒优化迭代学习控制方案的具体实施;

第一步:构建移动机器人离散非线性系统动力学方程二维运动移动机器人实际物理模型如式(1)所示,机器人当前位置z(t)点在广义坐标中定义为[sz(t),pz(t),θz(t)],sz(t)和pz(t)为直角坐标系下z(t)的坐标,θz(t)为机器人的方位角;当机器人的标定方向为地理坐标系的横轴正半轴时,θz(t)定义为0;移动机器人受不完全约束的影响而只能在驱动轮轴的方向运动,点z(t)的线速度和角速度定义为和其中:ΔT为采样

时间;定义状态向量x(t)=[sz(t),pz(t),θz(t)]T表示移动机器人在采样点处的s坐标量,p坐标量和角度量;速度向量 移动机器人的输入量在点z(t)处的线速度和角速度定义为 和 定义变量矩阵

考虑到二维运动移动机器人受外界状态干扰因素和输出受扰因素的影响,且系统初态与期望初值不严格一致情况,将式(1)表示为如(2)形式的状态空间方程:式中0≤t≤T,T为系统运动周期,xk(t)∈Rn,uk(t)∈Rr,yk(t)∈Rm分别表示移动机器人第k次运行时的状态量,控制输入量和输出量,即移动机器人在坐标系中的实际s坐标、p坐标及角度坐标运行轨迹;ωk(t)∈Rn,vk(t)∈Rm分别为系统第k次运行时的状态和输出干扰量,且对于任意的k>0,t∈{0,1,…,T},必然||ωk(t)||≤bω,||vk(t)||≤bv;f(t,xk(t))和B(t,xk(t))为系统第k次运行时的非线性系统矩阵函数,f(·)、B(·)关于x满足一致全局Lipschitz条件,函数g(t,xk(t))存在x的偏导数,满足上确界要求:且在不注明情况下, 均简写

为 系统的初态满足条件

第二步:设计常规P型开闭环迭代学习控制器

针对非线性移动机器人系统(2)设计P型开闭环迭代学习控制律:uk+1(t)=uk(t)+Lk+1(t)ek(t+1)+Γk+1(t)ek+1(t)   (3)式中其中Lk+1(t),Γk+1(t)为迭代学习的增益矩阵,由于实际控制器增益有界,因此第三步:鲁棒迭代学习轨迹跟踪控制器收敛性分析定义输出跟踪误差:ek(t)=yd(t)-yk(t),则:||δxk(t+1)||≤||f(t,δxk(t))||+||B(t,δxk(t))||||ud(t)||+||B(t,xk(t))||||δuk(t)||+||ωk(t)||   (5)其中 为xk(t+1)与xd(t+1)之间的某个取值, 为xk+1(t)与xd(t)之间的某个取值;令 进而可得:

令: 得到:

接下来,将式(6)代入式(7)中,并令

两端同时乘以λt,并取λ范数立即可得:

其中:

即经k次迭代后:

当λ取足够小, 时:

则:

而且将式(10)代入式(11)中,进一步可得:由式(12)可知,通过k次迭代后,最终跟踪误差会收敛到一定范围以内,即:其中: 特别地,当非线性

系统不存在外界因素的干扰且系统初始值与给定期望初态严格一致时,第四步:优化鲁棒迭代学习轨迹跟踪控制器

虽然在第三步中鲁棒迭代控制器能够使得移动机器人系统满足稳定性条件,但稳定参数的选择范围较大,稳定参数的人为随意选择将使得系统即使满足稳定性条件通常也会降低最终控制性能;因此需要进一步考虑存在干扰情形下,非线性机器人离散系统(2)的鲁棒优化控制算法,其中t∈{0,1,…,T}为采样时刻,输出表示为:yk(1)=H(xk(0),uk(0),ωk(0)+vk(1))·

·

·

yk(T)=H(xk(0),uk(0),…,uk(T-1),ωk(0),…,ωk(T-1)+vk(T))则输出误差可表示为:

ek+1=ek-(yk+1-yk)   (13)由微分中值定理及非线性系统可得:

其中 表示H(·)关于uk的Jacobain矩阵在uk+1(t)和uk(t)之间的取值, 为含初值不严格一致的扰动总量;

为方便求解,将增益矩阵改写成一种特殊形式:Lk+1=αk+1W,Γk+1=βk+1M,其中W,M分别为与Lk+1和Γk+1相同结构和维数的构造矩阵,αk+1、βk+1分别为参量,则迭代学习控制律可改写成:uk+1-uk=αk+1Wek+βk+1Mek+1   (15)得到ek+1,即 进一步整理得到:

考虑性能指标:

其中调节量ψ>0, Q=I;

利用最优控制原理中的极值原理可以得到:

注意到这里求出的 与 将分别含有ψ和 说明ψ与 对αk+1取最优解具有调节作用,同时对βk+1也具有调节作用,因此需对ψ和 求偏导求其相应的最优解,即:综合以上优化分析条件建立多目标优化函数,得到最优化参数 代入迭代学习律中即可得到鲁棒优化迭代学习的P型开闭环控制器;

第五步:系统输出跟踪误差的鲁棒单调性分析

考虑性能指标函数式(17):

当取非最优化解αk+1=0,βk+1=0,则:因此,||ek+1||≤ ||ek||,即误差单调收敛,||ek+1||的极限必然存在;根据可知误差会收敛到优化后的有界误差范围内;实际上,对于确定性系统,由于 则误差将收敛到零;综合式(20)和式(21)可得:

经k次迭代后有:

实际上,在理想状态下系统不存在干扰,且初值严格一致的条件下,对于P型开环的参数优化式(27)中e0=0, 最终 而对于非线性系统采用P型开闭环控制律,由于随机干扰的存在,且初值不严格一致,则 将会无限逼近于零,但无法达到,而对于 由式(23)移项整理可知其存在一定的上限;

第六步:具体鲁棒单调优化迭代学习控制方案实施迭代学习轨迹跟踪算法具体的鲁棒优化方案如下:

1)针对被控移动机器人系统(2),设定系统期望初始状态xk(0),初始控制u0,期望轨迹yd,采样周期ΔT;

2)给定最大跟踪误差精度εmax;

3)设定系统批次运行时的初值xk(0),在干扰量存在条件下运行系统并记录时刻对应的输出误差和干扰量值的大小,给定适当的W和M,带入多目标优化函数性能指标得到得到最优化控制律;

4)对第k+1批次控制量作用于被控系统,产生跟踪误差若在允许最大跟踪误差精度范围以内,结束迭代过程,否则回到3)中重新设定相应初值,继续迭代,直到达到要求误差精度范围;

将上述鲁棒单调优化迭代学习控制器在FPGA芯片EP1C6T144C8上实现,输入量为移动机器人的线速度 和角速度 分别经由扭矩传感器和旋转角度传感器检测得到的信号,输入信号通过调理电路由FPGA核心中央处理芯片按性能指标进行程序计算得出优化参数,并构建鲁棒单调优化控制器,CPU程序计算得到的输出信号为FPGA经迭代信号处理后得到最优化控制器 控制信号再经RS232通信模块作用于机器人控制系统,不断修正二维运动移动机器人的跟踪轨迹,直到达到设定要求,误差允许在一定范围内保持。