一种基于事件触发的机器人运动约束跟踪控制方法
文献发布时间:2024-04-18 19:57:11
技术领域
本发明属于机器人系统控制技术领域,具体为一种基于事件触发的机器人运动约束跟踪控制方法。
背景技术
随着感知、交互、控制以及人工智能技术的快速发展,机器人系统已被广泛应用于日常生产生活中。机器人技术从单一任务到更加复杂任务场景、从数字化到智能化的进程中仍面临诸多技术问题亟待解决。由于典型机器人系统具有强耦合、强非线性等特性,一个基本问题是为其设计合适的控制器,使机器人按照特定的或者人类指令执行复杂任务。自然,机器人的运动控制问题近年来引起了广泛关注。运动控制作为机器人技术中的一个重要问题,是机器人系统在实际应用中完成多种复杂任务的重要基础。
现有的机器人控制方法大多依赖于时间触发机制,但这种方法在实际应用中并不理想,主要体现在该方法的机器人系统总是周期性的连续采集系统状态,来更新其控制信号,导致大量的信息传输和计算成本的增加。此外,在一些机器人的典型应用中,由于某些应用场景的特殊要求或受机器人自身机械结构限制,机器人的关节运动空间往往受到一定的约束。也就是说,现有的机器人运动控制方法并没有同时考虑关节运动范围受限问题,与系统性能优化问题。
因此,在考虑机器人关节运动范围受限的情况下,如何设计一种兼顾系统性能优化的机器人运动跟随控制成为亟待解决的问题。
发明内容
本发明的目的在于提供一种基于事件触发的机器人运动约束跟踪控制方法。通过引入转换方程对机器人运动状态进行变换,来处理机器人运动约束问题,即将原有的运动约束跟踪控制问题,转化为一种新的无约束跟踪误差系统的最优控制问题。并在此基础上,构建基于事件触发机制的智能学习器,实现最优控制器的在线求解。在求解过程中,通过在权重参数更新规则中引入稳定项,松弛了对初始稳定控制器的要求,提高该方法在实际系统应用中的可行性。
为了实现上述目的,本发明采用如下技术方案:
一种基于事件触发的机器人运动约束跟踪控制方法,包括以下步骤:
步骤1、基于机器人系统的动力学模型和跟踪误差状态,建立带有约束的跟踪误差系统;
步骤2、通过引入转换方程,对带有约束的跟踪误差系统中的控制问题进行等价转化,得到无约束的辅助跟踪误差系统;
步骤3、基于无约束的辅助跟踪误差系统,设置用于评估其性能的代价函数;利用Hamilton函数和Bellman最优性原理,对代价函数进行求解,得到针对辅助跟踪误差系统的最优控制问题模型;
步骤4、通过引入事件触发机制,利用神经网络技术构建事件触发智能学习控制器;通过事件触发智能学习控制器与设计的事件触发条件,完成机器人运动约束的跟踪控制。
进一步的,所述步骤4的实现方法为:
4.1、在步骤3得到的最优控制问题模型中引入事件触发机制,得到事件触发最优控制器;
4.2、构建神经网络,并将神经网络作为智能控制器,神经网络包括评价网络和执行网络;通过设计评价网络和执行网络权重参数更新规则,并在智能控制器中对执行网络学习的事件触发最优控制器进行设置,得到事件触发智能学习控制器;
4.3、通过事件触发智能学习控制器与设计事件触发条件,完成机器人运动约束的跟踪控制。
进一步的,所述步骤1的实现方法为:
1.1、机器人系统的动力学模型为:
式(1)中,q表示机器人系统的关节运动状态,u表示系统的控制输入;M(q)、
定义运动跟踪误差为e
1.2、根据跟踪误差状态和机器人系统的动力学模型公式(1),建立跟踪误差动力学公式(2):
式(2)中,
定义机器人关节运动约束范围为:
式(3)中,n表示机器人自由度,
根据式(3),得到跟踪误差的约束范围:
进一步的,所述步骤2的实现方法为;
2.1、引入Barrier转换方程,并求出该方程的逆函数:
引入的方程为:
式(4)中,ξ
根据跟踪误差动力学公式(2)和方程(4),即可构建出无约束跟踪误差系统,无约束跟踪误差系统的表达式如式(6)所示:
式(6)中,
进一步的,所述步骤3的实现过程为:
3.1、基于无约束的辅助跟踪误差系统,设置用于评估其性能的代价函数如式(7)所示;
式(7)中,Q(ξ,u)=ξ
3.2、利用Hamilton函数和Bellman最优性原理,对代价函数进行求解,得到针对辅助跟踪误差系统的最优控制问题模型,具体操作如下:
定义Hamilton函数为:
式(8)中,
根据Bellman最优性原理,即可得到最优控制问题模型,最优控制问题模型的表示式为:
进一步的,所述步骤4.1得到事件触发的最优控制器实现方法为:
定义一个单调递增的事件触发时刻集合
相应的事件触发最优控制器为:
进一步的,所述步骤4.2的实现方法为:
利用评价网络实现对代价函数的近似表达,代价函数近似为:
式(12)中,W
采用如下真实的近似表达:
其中,
将式(12)代入式(8),得到评价网络的误差函数为:
利用梯度法,设计评价网络权重参数更新规则,以保证评价网络的目标函数
式(15)中,α
对执行网络学习的事件触发最优控制器进行设置,得到其近似形式为:
式(17)中,
通过设计网络权重更新规则,使执行网络的目标函数达到最小化,以实现执行网络的优化目标,目标函数的具体形式如式(18)所示:
设计基于事件触发的执行网络权重参数更新规则,如式(19)所示:
式(19)中,α
定义一个动态变量η
其中,κ是一个正的滤波常数,λ
设计如下事件触发条件为:
其中,θ∈(0,1)为设计参数。
采用上述技术方案后,本发明具有以下优点:
1.本发明考虑了机器人系统运动约束问题,通过引入转换方程,对带有约束的跟踪误差系统中的控制问题进行等价转化,得到无约束的辅助跟踪误差系统,使得原始的跟踪控制问题得到有效求解。
2.本发明通过引入事件触发机制,利用神经网络技术,构建事件触发智能学习控制器;通过事件触发智能学习控制实现了最优控制器的在线求解,而且可以降低机器人系统的通信负载和计算资源损耗,兼顾了机器人系统的稳定性和优化性能,具有实际意义。
3.本发明通过在神经网络权重更新规则中增加一个稳定项
附图说明
图1为实施例1的机器人运动约束跟踪控制方法流程图。
具体实施方式
下面结合附图和实施例详细本发明技术方案。
实施例1
如图1所示,1、一种基于事件触发的机器人运动约束跟踪控制方法,包括以下步骤:
步骤1、基于机器人系统的动力学模型和跟踪误差状态,建立带有约束的跟踪误差系统,具体操作如下:
1.1、机器人系统的动力学模型为:
式(1)中,q表示机器人系统的关节运动状态,u表示系统的控制输入;M(q)、
定义运动跟踪误差为e
1.2、根据跟踪误差状态和机器人系统的动力学模型公式(1),建立跟踪误差动力学公式(2):
式(2)中,
定义机器人关节运动约束范围为:
式(3)中,n表示机器人自由度,
根据式(3),得到跟踪误差的约束范围:
步骤2、通过引入转换方程,对带有约束的跟踪误差系统中的控制问题进行等价转化,得到无约束的辅助跟踪误差系统;具体操作如下:
2.1、引入Barrier转换方程,并求出该方程的逆函数:
引入的方程为:
式(4)中,ξ
根据跟踪误差动力学公式(2)和方程(4),即可构建出无约束跟踪误差系统,无约束跟踪误差系统的表达式如式(6)所示:
式(6)中,
步骤3、基于无约束的辅助跟踪误差系统,设置用于评估其性能的代价函数;利用Hamilton函数和Bellman最优性原理,对代价函数进行求解,得到针对辅助跟踪误差系统的最优控制问题模型;具体操作如下:
3.1、基于无约束的辅助跟踪误差系统,设置用于评估其性能的代价函数。该函数通过式(6)计算得到,其表达式如式(7)所示;
式(7)中,Q(ξ,u)=ξ
3.2、利用Hamilton函数和Bellman最优性原理,对代价函数进行求解,得到针对辅助跟踪误差系统的最优控制问题模型,具体操作如下:
根据3.1设置的代价函数,定义Hamilton函数为:
式(8)中,
根据Bellman最优性原理,即可得到最优控制问题模型,最优控制问题模型的表示式为:
步骤4、通过引入事件触发机制,利用神经网络技术,构建事件触发智能学习控制器;本实施例采用的神经网络为反向传播BP神经网络。通过事件触发智能学习控制器与设计的事件触发条件,完成机器人运动约束的跟踪控制。
4.1、在步骤3得到的最优控制问题模型中引入事件触发机制,得到事件触发最优控制器;具体操作如下:
定义一个单调递增的事件触发时刻集合
相应的事件触发最优控制器为:
4.2、构建神经网络,并将神经网络作为智能控制器,神经网络包括评价网络和执行网络;通过设计评价网络和执行网络权重参数更新规则,并在智能控制器中对执行网络学习的事件触发最优控制器进行设置,得到事件触发智能学习控制器。具体操作如下:
利用评价网络和执行网络,实现对代价函数和事件触发最优控制的近似表达,代价函数近似为:
其中,W
采用如下真实的近似表达:
其中,
结合(13),则得到评价网络的误差函数为:
利用梯度法,设计评价网络权重参数更新规则,从而保证评价网络的目标函数
其中,α
进一步,设置执行网络学习最优的事件触发控制器,其近似形式为:
其中,
执行网络的优化目标是通过设计网络权重更新规则,使得执行网络的目标函数达到最小化,目标函数的具体形式为:
设计如下基于事件触发的执行网络权重参数更新规则为:
其中,α
定义一个动态变量η
其中,κ是一个正的滤波常数,λ
设计如下事件触发条件为:
其中,θ∈(0,1)为设计参数。
4.3、通过事件触发智能学习控制器与设计事件触发条件,完成机器人运动约束的跟踪控制。
- 一种基于原对偶神经网络的移动机器人视觉伺服轨迹跟踪预测控制方法
- 一种基于事件触发的移动机器人轨迹跟踪控制方法
- 一种基于确定学习的轮式移动机器人事件触发跟踪控制方法