掌桥专利:专业的专利平台
掌桥专利
首页

一种轨道交通自动驾驶运行控制方法、设备、存储介质

文献发布时间:2023-06-19 19:28:50


一种轨道交通自动驾驶运行控制方法、设备、存储介质

技术领域

本申请涉及轨道交通技术领域,尤其涉及一种轨道交通自动驾驶运行控制方法、设备、存储介质。

背景技术

既有列车ATO(Automatic Train Operation,列车自动驾驶系统)控制方法仅考虑了停车精度,并未考虑列车运行能耗、车辆性能变化、运行环境变化等因素,导致ATO系统需要针对特定线路、特定环境、特定车辆设计开发不同的代码版本,设置不同的配置参数。开发周期长,调试成本高,控制性能差。

同时,由于未考虑单个车辆在使用周期内的损耗及其更新机制,导致列车运行一段时间后,控制模型与实际列车性能偏差较大,而研发人员为了避免对单个车辆进行逐一调试,只能采用取平均值的方式弥补,进而持续拉大了各个列车之间的控制效率。

发明内容

为了解决上述技术缺陷之一,本申请提供了一种轨道交通自动驾驶运行控制方法、设备、存储介质。

本申请第一个方面,提供了一种轨道交通自动驾驶运行控制方法,该方法包括:

模拟列车自动驾驶运行环境,并建立多目标强化学习模型;

针对运行线路,通过列车自动驾驶运行环境模拟列车性能;

基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识;

将参数调整知识嵌入待控制列车,以通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制。

可选地,针对运行线路,通过列车自动驾驶运行环境模拟列车性能,包括:

构建列车运行智能体;

针对运行线路,由初始状态开始,通过列车运行智能体引入动作序列空间与列车自动驾驶运行环境进行交互,不断更新列车运行状态;

计算各次交互所选动作获得的奖励;

将各次交互得到的当前状态、所选动作、获得的奖励以及下一状态构建成四元组存储于状态嵌套字典。

可选地,基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,包括:

配置测试参数,初始化Q表;

针对每一时刻,通过多目标强化学习模型,基于测试参数和模拟的列车性能,确定该时刻状态、选择的动作和观察奖励,并根据该时刻状态、选择的动作和观察奖励更新Q表;

将最终的Q表作为多目标的参数调整知识。

可选地,测试参数,包括如下的一种或多种:站间距离、推荐运行时间、停车间隔、动作序列。

可选地,针对每一时刻,通过多目标强化学习模型,基于测试参数和模拟的列车性能,确定该时刻状态、选择的动作和观察奖励,包括:

对于任一时刻t,执行如下步骤:

通过多目标强化学习模型,基于测试参数和模拟的列车性能,将t时刻地面位移d

通过ε-greedy策略在动作空间中选择一个动作action

通过动力学、运动学模型计算第t+1时刻状态并计算奖励r

可选地,根据该时刻状态、选择的动作和观察奖励更新Q表,包括:

通过如下公式更新Q表:

Q

其中,Q

可选地,列车运行智能体基于限速对列车状态进行边界限制,基于推荐运行时间与单步运行时间间隔的比值对列车准时性进行限制,基于动作序列空间中的级位变化序列对加速度变化的范围进行限制,根据预先设置的停车间隔对停车区间进行限制。

可选地,限速,包括:车辆限速、线路限速和EBI限速。

本申请第二个方面,提供了一种电子设备,包括:

存储器;

处理器;以及

计算机程序;

其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如上述第一个方面所述的方法。

本申请第三个方面,提供了一种计算机可读存储介质,其上存储有计算机程序;所述计算机程序被处理器执行以实现如上述第一个方面所述的方法。

本申请提供一种轨道交通自动驾驶运行控制方法、设备、存储介质,该方法包括:模拟列车自动驾驶运行环境,并建立多目标强化学习模型;针对运行线路,通过列车自动驾驶运行环境模拟列车性能;基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识;将参数调整知识嵌入待控制列车,以通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制。

本申请提供的方法基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,进而通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制,可以实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制,增强列车自动驾驶系统控制算法自适应和泛化能力,提升控制算法的鲁棒性,减少设备上线后的人员维护成本、提高运营效率。

另外,在一种实现中,构建列车运行智能体,通过列车运行智能体更新列车运行状态,形成状态嵌套字典,提升了参数调整知识的训练速度和训练准确度,保证了列车性能的准确模拟,进而保证了参数调整知识的准确性,实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制。

另外,在一种实现中,基于各时刻的时刻状态、选择的动作和观察奖励更新Q表,得到参数调整知识,保证了参数调整知识的准确性,实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制。

另外,在一种实现中,明确了测试参数,保证了参数调整知识的准确性,实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制。

另外,在一种实现中,将各时刻地面位移、车速、加速度编码成各时刻状态;通过ε-greedy策略在动作空间中选择一个动作;通过动力学、运动学模型计算奖励,保证了状态的准确确定,进而保证了参数调整知识的准确性,实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制。

另外,在一种实现中,明确了Q表更新方案,保证了参数调整知识的准确性,实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制。

另外,在一种实现中,列车运行智能体对列车状态进行边界、准时性、加速度变化的范围、停车区间进行限制,实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制。

另外,在一种实现中,明确了边界限制是的限速内容,实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制。

本申请提供的电子设备,其上计算机程序被处理器执行以基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,进而通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制,可以实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制,增强列车自动驾驶系统控制算法自适应和泛化能力,提升控制算法的鲁棒性,减少设备上线后的人员维护成本、提高运营效率。

本申请提供的计算机可读存储介质,其上的计算机程序被处理器执行以基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,进而通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制,可以实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制,增强列车自动驾驶系统控制算法自适应和泛化能力,提升控制算法的鲁棒性,减少设备上线后的人员维护成本、提高运营效率。

附图说明

此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:

图1为本申请实施例提供的一种轨道交通自动驾驶运行控制方法流程示意图;

图2为本申请实施例提供的一种调参测试方案的示意图;

图3为本申请实施例提供的另一种轨道交通自动驾驶运行控制方法的实现架构示意图。

具体实施方式

为了使本申请实施例中的技术方案及优点更加清楚明白,以下结合附图对本申请的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本申请的一部分实施例,而不是所有实施例的穷举。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。

在实现本申请的过程中,发明人发现,既有列车ATO控制方法仅考虑了停车精度,并未考虑列车运行能耗、车辆性能变化、运行环境变化等因素,导致ATO系统需要针对特定线路、特定环境、特定车辆设计开发不同的代码版本,设置不同的配置参数。开发周期长,调试成本高,控制性能差。

同时,由于未考虑单个车辆在使用周期内的损耗及其更新机制,导致列车运行一段时间后,控制模型与实际列车性能偏差较大,而研发人员为了避免对单个车辆进行逐一调试,只能采用取平均值的方式弥补,进而持续拉大了各个列车之间的控制效率。

针对上述问题,本申请实施例中提供了一种轨道交通自动驾驶运行控制方法、设备、存储介质,该方法包括:模拟列车自动驾驶运行环境,并建立多目标强化学习模型;针对运行线路,通过列车自动驾驶运行环境模拟列车性能;基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识;将参数调整知识嵌入待控制列车,以通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制。本申请提供的方法基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,进而通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制,可以实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制,增强列车自动驾驶系统控制算法自适应和泛化能力,提升控制算法的鲁棒性,减少设备上线后的人员维护成本、提高运营效率。

参见图1,本实施例提供的轨道交通自动驾驶运行控制方法实现过程如下:

101,模拟列车自动驾驶运行环境,并建立多目标强化学习模型。

其中,模拟列车自动驾驶运行环境的过程为:通过列车运动学模型和列车动力学模型,模拟列车自动驾驶运行环境。

102,针对运行线路,通过列车自动驾驶运行环境模拟列车性能。

本步骤实现过程为:

1、构建列车运行智能体。

列车运行智能体基于限速对列车状态进行边界限制,通过该限制可以实现安全优化。基于推荐运行时间T与单步运行时间间隔ΔT的比值

其中,限速,包括:车辆限速、线路限速和EBI限速。

2、针对运行线路,由初始状态开始,通过列车运行智能体引入动作序列空间与列车自动驾驶运行环境进行交互,不断更新列车运行状态。

在更新列车运行状态之后,还会计算各次交互所选动作获得的奖励。将各次交互得到的当前状态、所选动作、获得的奖励以及下一状态构建成四元组存储于状态嵌套字典。

其中,状态嵌套字典的深度由推荐运行时间和单步模拟时间间隔决定、广度由动作序列长度决定。

103,基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识。

本步骤的实现过程为:

1、配置测试参数,初始化Q表。

其中,测试参数,包括如下的一种或多种:站间距离、推荐运行时间、停车间隔、动作序列。

本步骤是参数测试开始前的过程。

2、针对每一时刻,通过多目标强化学习模型,基于测试参数和模拟的列车性能,确定该时刻状态、选择的动作和观察奖励,并根据该时刻状态、选择的动作和观察奖励更新Q表。

本步骤是参数测试开始后的测试过程。

其中,

1)针对每一时刻,通过多目标强化学习模型,基于测试参数和模拟的列车性能,确定该时刻状态、选择的动作和观察奖励的过程为:

对于任一时刻t,执行如下步骤:

(1)通过多目标强化学习模型,基于测试参数和模拟的列车性能,将t时刻地面位移d

(2)通过ε-greedy策略在动作空间中选择一个动作action

(3)通过动力学、运动学模型计算第t+1时刻状态并计算奖励r

2)根据该时刻状态、选择的动作和观察奖励更新Q表的过程为:通过如下公式更新Q表:

Q

其中,Q

3、将最终的Q表作为多目标的参数调整知识。

例如,如图2所示,本步骤在具体实现时的过程为:

步骤1,训练超参数设置。

设定站间距离S、推荐运行时间T、停车间隔Δs、动作序列[Δjw

步骤2,初始化Q表。

Q表为Q(s,a),s为状态,a为奖励值。

初始化时,将Q表中的奖励值a初始化为某一固定值,如0。

步骤3,初始化状态。

对于任一时刻t,将t时刻地面位移d

步骤4,动作选择。

在t时刻使用ε-greedy策略在动作空间中选择一个动作action

步骤5,状态转换。

根据步骤4所选动作,通过动力学、运动学模型计算t+1时刻状态并计算奖励。

步骤6,更新Q表。

根据t时刻状态s

步骤7,结束判断,输出最终的Q表。

Q表收敛则回合中止,反之继续训练。

训练开始前,通过步骤1和步骤2配置相关训练超参数,如站间距离、推荐停车间隔、推荐运行时间、动作序列空间等;同时将Q表中的奖励值初始化为某一固定值,例如0;引入列车推荐速度曲线、牵引制动特性曲线等参数完成状态初始化。

训练开始后,通过步骤3至步骤6,在每一时刻t,处于状态s

根据上述调参测试方法,智能体agent从无知识状态开始在特定环境下探索学习,初期将尽可能随机执行动作,快速覆盖并学习部分状态下的动作奖励,随着知识的积累,动作选择也由完全随机转换为部分随机、部分采用最优动作的模式,以此增加探索深度,并强化最优动作路径,提升达成目标的效率,直至满足训练预设的迭代次数等终止条件,或是Q表中的数值基本保持稳定。

104,将参数调整知识嵌入待控制列车。

嵌入待控制列车之后,可以通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制。

针对传统列车ATO控制算法自适应能力弱,控制效果不理想等问题,本实施例提供一种方法,采用Q-learning强化学习,选择控制级位作为动作序列、计算列车运行状态以及奖励、更新Q表,最终输出满足约束条件的控车级位序列,可实现列车运行安全、准时、节能、舒适、精确停车的多目标优化控制,增强列车ATO控制算法自适应和泛化能力,提升控制算法的鲁棒性,减少设备上线后的人员维护成本、提高运营效率。

本实施例提供的方法步骤101、102和103在离线环境下执行,在离线环境下,建立策略控制参数变化响应仿真环境及多目标强化学习训练模型;然后针对特定线路,模拟不同性能列车并进行自动化调参测试,学习面向多种目标的参数调整知识;最后,将知识模型嵌入车载计算机,线上实现快速、可靠、多目标权衡的列车策略控制参数自学习,使自动驾驶系统常学常新,自主完成上线参数调试及时变性能匹配,持续保持良好的控车效果。

本实施例提供的方法在具体实现时,实现架构与既有架构不同,本实施例的方法采用图3所示的架构实现,包括基于模拟控车库的环境设计模块、基于动作-状态交互的智能体设计模块、基于强化学习的模型训练/测试模块。其中,环境设计模块通过初始化状态和动作序列空间,引入模型控车库生成完整的状态嵌套字典;智能体设计模块根据策略选择动作输入给环境设计模块,环境设计模块根据接收的动作以及生成的状态嵌套字典计算新的状态返回给智能体设计模块,智能体设计模块接收新的状态后判断是否收敛并选择执行下一步动作或中止回合;模型训练模块储存训练所得模型和Q表,同时模型测试模块加载模型并输出控制级位序列。

本实施例提供的方法引入列车运动学模型、列车动力学模型,用于模拟列车自动驾驶运行环境;其次构建列车运行智能体,由初始状态开始,引入动作序列空间与列车运行环境进行交互,不断更新列车运行状态。根据智能体与运行环境的每次交互,计算单步动作的奖励。将每一次交互得到的当前状态、所选动作、所得奖励以及下一状态构建成四元组存储在状态嵌套字典中。

本实施例提供的轨道交通自动驾驶运行控制方法,

实现了列车运行安全、准时、节能、舒适、精确停车的多目标优化。具体表现为:

在安全性方面,引入三类限速(车辆限速、线路限速和EBI限速)对列车运行状态进行边界限制,若列车运行智能体与环境交互的过程中出现依据当前状态选择的动作计算得到的车辆速度超过了速度边界,则下一状态直接指向初始状态。保证任何时刻出现安全问题的动作都将被指向初始化状态重新计算。

在准时性方面,通过在参数设置中定义推荐运行时间T以及单步运行时间间隔ΔT,计算得到状态转换深度为

在节能和舒适性方面,通过在动作序列空间中定义级位变化序列

在精确停车方面,通过在参数设计中定义停车间隔Δs约束停车区间,每次状态转换后判断列车运行智能体是否处在停车区间内,若处于则停止迭代,反之继续执行动作、转换状态直至满足停车区间条件。

本实施例提供的方法基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,进而通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制,可以实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制,增强列车自动驾驶系统控制算法自适应和泛化能力,提升控制算法的鲁棒性,减少设备上线后的人员维护成本、提高运营效率。

基于轨道交通自动驾驶运行控制方法的同一发明构思,本实施例提供一种电子设备,该电子设备包括:存储器,处理器,以及计算机程序。

其中,计算机程序存储在存储器中,并被配置为由处理器执行以实现上述轨道交通自动驾驶运行控制方法。

具体的,

模拟列车自动驾驶运行环境,并建立多目标强化学习模型;

针对运行线路,通过列车自动驾驶运行环境模拟列车性能;

基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识;

将参数调整知识嵌入待控制列车,以通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制。

可选地,针对运行线路,通过列车自动驾驶运行环境模拟列车性能,包括:

构建列车运行智能体;

针对运行线路,由初始状态开始,通过列车运行智能体引入动作序列空间与列车自动驾驶运行环境进行交互,不断更新列车运行状态;

计算各次交互所选动作获得的奖励;

将各次交互得到的当前状态、所选动作、获得的奖励以及下一状态构建成四元组存储于状态嵌套字典。

可选地,基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,包括:

配置测试参数,初始化Q表;

针对每一时刻,通过多目标强化学习模型,基于测试参数和模拟的列车性能,确定该时刻状态、选择的动作和观察奖励,并根据该时刻状态、选择的动作和观察奖励更新Q表;

将最终的Q表作为多目标的参数调整知识。

可选地,测试参数,包括如下的一种或多种:站间距离、推荐运行时间、停车间隔、动作序列。

可选地,针对每一时刻,通过多目标强化学习模型,基于测试参数和模拟的列车性能,确定该时刻状态、选择的动作和观察奖励,包括:

对于任一时刻t,执行如下步骤:

通过多目标强化学习模型,基于测试参数和模拟的列车性能,将t时刻地面位移d

通过ε-greedy策略在动作空间中选择一个动作action

通过动力学、运动学模型计算第t+1时刻状态并计算奖励r

可选地,根据该时刻状态、选择的动作和观察奖励更新Q表,包括:

通过如下公式更新Q表:

Q

其中,Q

可选地,列车运行智能体基于限速对列车状态进行边界限制,基于推荐运行时间与单步运行时间间隔的比值对列车准时性进行限制,基于动作序列空间中的级位变化序列对加速度变化的范围进行限制,根据预先设置的停车间隔对停车区间进行限制。

可选地,限速,包括:车辆限速、线路限速和EBI限速。

本实施例提供的电子设备,其上计算机程序被处理器执行以基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,进而通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制,可以实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制,增强列车自动驾驶系统控制算法自适应和泛化能力,提升控制算法的鲁棒性,减少设备上线后的人员维护成本、提高运营效率。

基于轨道交通自动驾驶运行控制方法的同一发明构思,本实施例提供一种计算机,且其上存储有计算机程序。计算机程序被处理器执行以实现上述轨道交通自动驾驶运行控制方法。

具体的,

模拟列车自动驾驶运行环境,并建立多目标强化学习模型;

针对运行线路,通过列车自动驾驶运行环境模拟列车性能;

基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识;

将参数调整知识嵌入待控制列车,以通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制。

可选地,针对运行线路,通过列车自动驾驶运行环境模拟列车性能,包括:

构建列车运行智能体;

针对运行线路,由初始状态开始,通过列车运行智能体引入动作序列空间与列车自动驾驶运行环境进行交互,不断更新列车运行状态;

计算各次交互所选动作获得的奖励;

将各次交互得到的当前状态、所选动作、获得的奖励以及下一状态构建成四元组存储于状态嵌套字典。

可选地,基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,包括:

配置测试参数,初始化Q表;

针对每一时刻,通过多目标强化学习模型,基于测试参数和模拟的列车性能,确定该时刻状态、选择的动作和观察奖励,并根据该时刻状态、选择的动作和观察奖励更新Q表;

将最终的Q表作为多目标的参数调整知识。

可选地,测试参数,包括如下的一种或多种:站间距离、推荐运行时间、停车间隔、动作序列。

可选地,针对每一时刻,通过多目标强化学习模型,基于测试参数和模拟的列车性能,确定该时刻状态、选择的动作和观察奖励,包括:

对于任一时刻t,执行如下步骤:

通过多目标强化学习模型,基于测试参数和模拟的列车性能,将t时刻地面位移d

通过ε-greedy策略在动作空间中选择一个动作action

通过动力学、运动学模型计算第t+1时刻状态并计算奖励r

可选地,根据该时刻状态、选择的动作和观察奖励更新Q表,包括:

通过如下公式更新Q表:

Q

其中,Q

可选地,列车运行智能体基于限速对列车状态进行边界限制,基于推荐运行时间与单步运行时间间隔的比值对列车准时性进行限制,基于动作序列空间中的级位变化序列对加速度变化的范围进行限制,根据预先设置的停车间隔对停车区间进行限制。

可选地,限速,包括:车辆限速、线路限速和EBI限速。

本实施例提供的计算机可读存储介质,其上的计算机程序被处理器执行以基于模拟的列车性能对多目标强化学习模型进行调参测试,得到多目标的参数调整知识,进而通过参数调整知识对待控制列车的自动驾驶系统进行参数调试及时变性能匹配,完成运行控制,可以实现列车运行安全、准时、节能、舒适、精确停车等多目标优化控制,增强列车自动驾驶系统控制算法自适应和泛化能力,提升控制算法的鲁棒性,减少设备上线后的人员维护成本、提高运营效率。

本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。本申请实施例中的方案可以采用各种计算机语言实现,例如,面向对象的程序设计语言Java和直译式脚本语言JavaScript等。

本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。

显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

技术分类

06120115925788