掌桥专利:专业的专利平台
掌桥专利
首页

技术领域

本发明涉及交互技术领域,尤其涉及一种交互方法、装置及存储介质、电子设备。

背景技术

随着科技的不断发展,人们对于交互方式的需求也在不断提高。传统的交互方式已经无法满足人们对于便捷、高效、直观的需求。因此,指尖交互应运而生。然而,在指尖交互过程中,当单目摄像头拍摄区域存在多个交互对象时,容易出现交互错乱的问题。

发明内容

本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的一个目的在于提出一种交互方法,具有识别准确,不易被干扰的优点。

本发明的第二个目的在于提出一种交互装置。

本发明的第三个目的在于提出一种计算机可读存储介质。

本发明的第四个目的在于提出一种电子设备。

为达到上述目的,本发明第一方面实施例提出一种交互方法,所述方法包括:获取手部图像;当检测到所述手部图像中存在多个交互手时,确定主交互手;识别所述主交互手的第一手指轨迹,并根据所述第一手指轨迹确定目标指令和目标对象;根据所述目标指令对所述目标对象进行控制。

根据本发明实施例的交互方法,在检测到手部图像中存在多个交互手时,通过确定主交互手,对主交互手的指尖轨迹进行追踪识别,确定目标指令和目标对象并根据目标指令对目标对象进行控制,实现主交互手的操作意图,具有识别准确,不易被干扰的优点。

另外,根据本发明上述实施例提出的交互方法还可以具有如下附加的技术特征:

根据本发明的一个实施例,所述手部图像中包含交互对象,所述确定主交互手,包括:确定主交互对象;对所述主交互对象进行人体骨骼点检测;根据检测出的人体骨骼点中的手部关键点,确定所述主交互手。

根据本发明的一个实施例,所述确定主交互对象,包括:识别所述手部图像中各所述交互手的第二手指轨迹;确定与预设唤醒手指轨迹一致的第二手指轨迹,并将该第二手指轨迹对应的交互手所属的交互对象作为所述主交互对象。

根据本发明的一个实施例,所述确定主交互对象,包括:对所述交互对象发出的声音信息进行声源定位,得到声源位置;将距离所述声源位置最近的交互对象作为所述主交互对象。

根据本发明的一个实施例,所述确定主交互对象,包括:将处于所述手部图像目标区域内的交互对象,或者,将在所述手部图像中占比最大的交互对象,作为所述主交互对象。

根据本发明的一个实施例,所述根据所述第一手指轨迹确定目标指令和目标对象,包括:若所述第一手指轨迹为预设静态手势轨迹,则根据所述预设静态手势轨迹查找第一预设对应关系,得到所述目标指令和所述目标对象;和/或若所述第一手指轨迹为预设动态手势轨迹,则根据所述预设动态手势轨迹查找第二预设对应关系,得到所述目标指令和所述目标对象。

根据本发明的一个实施例,所述根据所述第一手指轨迹确定目标指令和目标对象,包括:若所述第一手指轨迹为文字轨迹,则根据所述文字轨迹对应的文字信息得到所述目标指令和所述目标对象;和/或若所述第一手指轨迹为自定义图案轨迹,则确定所述目标对象为预设搜索引擎,所述目标指令为搜索出所述自定义图案轨迹对应的真实图像。

为达到上述目的,本发明第二方面实施例提出了一种交互装置,所述装置包括:获取模块,用于获取手部图像;检测模块,用于当检测到所述手部图像中存在多个交互手时,确定主交互手;识别模块,用于识别所述主交互手的第一手指轨迹,并根据所述第一手指轨迹确定目标指令和目标对象;交互模块,用于根据所述目标指令对所述目标对象进行控制。

为达到上述目的,本发明第三方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如本发明第一方面实施例提出的交互方法。

为达到上述目的,本发明第四方面实施例提出了一种电子设备,包括存储器、处理器,所述存储器上存储有计算机程序,所述计算机程序被所述处理器执行时,实现如本发明第一方面实施例提出的交互方法。

本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。

附图说明

图1是本发明一个实施例的交互方法的流程图;

图2是本发明一个具体实施例的确定主交互手的流程图;

图3是本发明一个实施例的手部关键点的示意图;

图4是本发明一个具体实施例的识别动态手势轨迹的示意图;

图5是本发明一个实施例的交互装置的示意图;

图6是本发明实施例的电子设备的结构框图。

具体实施方式

下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。

下面结合说明书附图1-6以及具体的实施方式对本发明实施例的交互方法、装置及存储介质、电子设备进行详细说明。

图1是本发明一个实施例的交互方法的流程图。如图1所示,交互方法可包括:

S101,获取手部图像;

S102,当检测到手部图像中存在多个交互手时,确定主交互手;

S103,识别主交互手的第一手指轨迹,并根据第一手指轨迹确定目标指令和目标对象;

S104,根据目标指令对目标对象进行控制。

具体地,可利用单目摄像头采集视频流,对视频流中的每一帧图像进行检测,获取视频流中具有手部的图像帧,即获取手部图像。对手部图像中的交互手进行检测,当检测到手部图像中存在多个交互手时,确定主交互手,对主交互手进行绑定识别,防止其他交互手影响主交互手的互动。识别主交互手的第一手指轨迹,并根据第一手指轨迹确定目标指令和目标对象,以根据目标指令对目标对象进行控制,实现用户的操作意图。

在本发明的一个实施例中,在视频流的图像帧中没有检测手部的情况下,保持如1s一次的频率触发手部检测,如果超过一定的阈值的时长无手被检出,则回到休眠状态,如果检测到手,则对手部图像中的交互手进行检测。

在本发明的一个可行的实施例中,手部图像中包含交互对象,确定主交互手,包括:

S201,确定主交互对象;

S202,对主交互对象进行人体骨骼点检测;

S203,根据检测出的人体骨骼点中的手部关键点,确定主交互手。

具体地,识别手部图像中的交互对象,并从多个交互对象中确定主交互对象。对主交互对象进行人体骨骼点检测,得到主交互对象人体骨骼点,其中,人体骨骼点中包括手部关键点。根据检测出的人体骨骼点中的手部关键点,确定主交互手。

需要说明的是,手部关键点包括21个关键点,参见图3。根据手部关键点可灵活地找到五根手指的指尖点的位置。通过记录指尖点的像素坐标,即可获得整体的指尖的轨迹。

在本发明实施例中,在检测手部关键点时,可采用手指关键点检测算法模型对手部图像中的交互手进行检测跟踪和定位,以及进行手部关键点信息的提取。需要说明的是,本发明实施例不对实现手指关键点检测的算法模型进行限定。

在本发明的一个可行的实施例中,确定主交互对象,可包括:

识别手部图像中各交互手的第二手指轨迹;

确定与预设唤醒手指轨迹一致的第二手指轨迹,并将该第二手指轨迹对应的交互手所属的交互对象作为主交互对象。

具体地,在从多个交互对象中确定主交互对象时,可识别手部图像中各交互手的第二手指轨迹。判断各交互手的第二手指轨迹是否与预设唤醒手指轨迹一致。确定与预设唤醒手指轨迹一致的第二手指轨迹,并将该第二手指轨迹对应的交互手所属的交互对象作为主交互对象。

该可行的实施例,通过触发手势来确定主交互人,即定义特殊手指轨迹作为主交互对象的确认依据。例如,检测手部图像中各交互手的手部关键点,计算食指和拇指指尖点欧式距离,如果满足“捏合”动作,即为主交互对象。

本发明实施例,第二手指轨迹使用何种确认手势不做限制。

在本发明的另一个可行的实施例中,确定主交互对象,可包括:

对交互对象发出的声音信息进行声源定位,得到声源位置;

将距离声源位置最近的交互对象作为主交互对象。

具体地,在从多个交互对象中确定主交互对象时,采集各交互对象发出的声音,并对各交互对象发出的声音信息进行声源定位,得到各交互对象的声源位置,将距离声源位置最近的交互对象作为主交互对象。

该可行的实施例,结合语音等多模信息,即利用声源定位等技术,根据交互对象的语音信息,在空间中确定主交互对象。

在本发明的另一个可行的实施例中,确定主交互对象,可包括:

将处于手部图像目标区域内的交互对象,或者,将在手部图像中占比最大的交互对象,作为主交互对象。

需要说明的是,上述触发手势来、结合语音等多模信息确定主交互人的方式为唤醒方式。采用唤醒方式确定主交互人具有高精度、能够极大地减少误触等优点,但交互相对不是更自由,很多场景需要更自由交互方式,需要无唤醒的方式来确定主交互人。

具体地,在从多个交互对象中确定主交互对象时,检测手部图像中各交互对象的位置,将处于手部图像目标区域内的交互对象作为主交互对象。或计算手部图像中各交互对象的占比,将在手部图像中占比最大的交互对象作为主交互对象。

该可行的实施例,结合场景制定一定的策略,例如以人体检测跟踪的方式对摄像头范围内的所有交互对象进行人体跟踪,并按照如最大人体或者划定交互区域选择在划定交互区域中的交互对象作为主交互对象。该无唤醒方式确定主交互对象更自由。

在本发明的一个可行的实施例中,根据第一手指轨迹确定目标指令和目标对象,包括:

若第一手指轨迹为预设静态手势轨迹,则根据预设静态手势轨迹查找第一预设对应关系,得到目标指令和目标对象;和/或

若第一手指轨迹为预设动态手势轨迹,则根据预设动态手势轨迹查找第二预设对应关系,得到目标指令和目标对象。

在本发明实施例中,手指轨迹可为静态手势轨迹,还可为动态手势轨迹。本发明实施例通过预设第一预设对应关系和/或第二预设对应关系,根据静态手势轨迹和/或动态手势轨迹确定不同的目标指令和目标对象,即确定不同的操作意图。

本发明实施例在确认用户操作意图时,对手部关键点的位置和轨迹进行模拟,并对操作意图进行分类,可根据手指轨迹是静态和动态采用不同的算法进行识别确定不同的操作意图。

具体地,当手指轨迹为静态手势轨迹时,根据手部关键点之间的距离和角度差异,确定第一手指轨迹。判断第一手指轨迹是否为预设静态手势轨迹。若第一手指轨迹为预设静态手势轨迹,则根据预设静态手势轨迹查找第一预设对应关系,得到目标指令和目标对象。其中,在识别静态手势轨迹时,提取的手部关键点包括手部关键点(如指尖、指关节等)的位置和方向信息,然后使用机器学习算法(如支持向量机、神经网络等)对这些特征进行分类和识别,从而达到对预设静态手势轨迹的识别。

具体地,当手指轨迹为动态手势轨迹时,利用指尖的时序轨迹信息作为深度学习的输入,通过模型对时序信息进行建模,获取指尖动态和方向信息,从而确定主交互手的第一手指轨迹。判断第一手指轨迹是否为预设动态手势轨迹。若第一手指轨迹为预设动态手势轨迹,则根据预设动态手势轨迹查找第二预设对应关系,得到目标指令和目标对象。其中,在识别动态手势轨迹时,需要识别手势时序信息,可利用时序建模方式如TSM等获取时序特征。例如,通过TSM模型识别左挥和右挥等动态手势。其中,TSM模型是通过采用分类的建模方式训练得到的,由于分类的建模方式,需提前设定好类别,需要新增类别时,需重新定制和训练,存在投入成本大的问题。为降低投入成本,可将检索方案融入到动态手势识别过程中,即将轨迹分阶段绘制成过程图像,并通过对比学习拉近相同手势动作距离,拉远不同手势距离,利用检索方案获取对应的手势,具体如图4所示。

在本发明实施例中,第一预设对应关系和第二预设对应关系支持用户对手势轨迹自适应的功能定义,即用户可以预先定义手势对应的功能。示例性的,以座舱为例:用户可以定义“OK”手势为打开音乐;“比V”为打开天窗等。示例性的,根据多点触控操作确定目标指令和目标对象。即通过分析手指的数量来判断操作意图。例如,两个手指的捏合操作可表示缩放或旋转,三个或更多手指的捏合操作可表示选择或拖动。示例性的,跟踪手指移动路径确定目标指令和目标对象。即通过分析手指在屏幕上的移动路径判断操作意图。例如,从左到右的直线路径可表示浏览页面,而从上到下的曲线路径可表示滚动页面。

在本发明的一个可行的实施例中,根据第一手指轨迹确定目标指令和目标对象,包括:

若第一手指轨迹为文字轨迹,则根据文字轨迹对应的文字信息得到目标指令和目标对象;和/或

若第一手指轨迹为自定义图案轨迹,则确定目标对象为预设搜索引擎,目标指令为搜索出自定义图案轨迹对应的真实图像。

在本发明实施例中,动态手势轨迹可为文字轨迹或自定义图案轨迹。可实施的,利用Ocr识别(OpticalCharacterRecognition,光学字符识别)确定第一手指轨迹为文字轨迹还是自定义图案轨迹。

具体地,确定第一手指轨迹为文字轨迹时,根据指尖轨迹交互可实现酷炫的“凌空手写”,并将手写的图像送到后续的光学字符识别,可以与大屏进行实时交互。其中识别出的汉字还可用于歌曲搜索、视频搜索等交互。

具体地,确定第一手指轨迹为自定义图案轨迹,利用预设搜索引擎根据指尖轨迹绘制的图像用于智能识图,即利用指尖绘制的轨迹图案进行检索,获取真实的图像,可用于学习机等桌面互动产品中。此外,还可利用指尖轨迹实现九宫格的解锁,将手写的轨迹图像送到深度学习的模型进行特征编码,实现类似人脸注册和人脸检索的图案识别,并根据识别的结果实现不同的功能,可以实现防止类似人脸那种敏感数据暴露风险。

本发明实施例在训练手指关键点检测的算法模型时,获取大量的手部图像,即收集包含手部区域的图像或视频数据。这些数据可以通过摄像头、传感器或其他图像采集设备获取。在实际应用中,可能需要对不同角度、光线条件和背景进行多次拍摄,以获得更全面的手部信息。在进行手部区域检测之前,需要对获取的手部图像进行预处理。预处理至少包括去噪、缩放、旋转等操作中的一者,以消除噪声、调整图像大小和角度,以及统一手部区域的位置和尺度。此外,还可以通过特征提取、匹配和分类等方法,对手部区域进行进一步的分析和筛选。手部区域检测是整个过程中的关键步骤。具体地,首先从预处理后的手部图像中提取手部的特征。这些特征通常包括手部的形状、大小、颜色和纹理等。常用的手部特征提取方法有SIFT(尺度不变特征变换)、SURF(加速鲁棒特征)和HOG(方向梯度直方图)、CNN(卷积神经网络)等。其次在提取到手部特征后,需要对手部图像进行手部区域的检测。这一步骤通常涉及到边缘检测、轮廓提取和区域分割等计算机视觉技术。通过这些技术,可以将图像中的手部与其他物体分离出来,形成一个独立的手部区域。最后需要对手部进行实时跟踪。这一步骤通常涉及到光流法、卡尔曼滤波器和机器学习KCF、深度学习DeepSort等方法。通过这些方法,可以实现对手部的连续跟踪,捕捉到手部在图像或视频中的运动轨迹。在手部关键点信息提取中,我们通常关注21个基本的手部关键点,为了准确提取这些关键点,采用基于特征、基于模板和基于深度学习的提取方法。

采用基于特征的提取方法时,首先,从图像或视频中提取手部区域。然后,通过手工设计的特征来描述这些区域。例如,可以使用SIFT、SURF等特征描述子来描述手部区域的纹理和形状信息。最后,通过对这些特征进行匹配和筛选,可以确定手部关键点的位置。

基于模板的提取方法与基于特征的方法类似,基于模板的方法也需要手动设计模板来描述手部区域。然而,与基于特征的方法不同的是,这些模板是基于已知的关键点位置而设计的。通过将图像或视频中的手部区域与这些模板进行匹配,可以确定关键点的位置。

采用基于深度学习的提取方法,使用卷积神经网络(CNN)来自动学习手部区域的特征表示。通过在大量的标注数据上训练CNN,可以实现对手部关键点的准确检测和定位。该方法的优点是准确性高,但需要大量的计算资源和标注数据。其中,基于深度学习的提取方法过程如下:

图像预处理:首先,对手部检测后外扩的区域进行预处理,包括缩放、裁剪、灰度化、直方图均衡化等操作,以减少图像中的噪声和增强图像对比度。这有助于提高后续关键点检测的准确性。边缘检测:使用Canny边缘检测算法或其他边缘检测方法,在预处理后的图像中检测出手部的边缘信息。这一步是为了从背景中分离出手部的轮廓。手部轮廓提取:在边缘检测结果的基础上,通过寻找轮廓或使用轮廓近似方法(如GrabCut算法),或者其他提取方法,提取出手部的轮廓信息。这一步的目的是确定手部在图像中的位置和形状。关键点定位:在手部轮廓上,使用手工设计的特征点(如人手上的关键点)或自动特征点检测算法(如SIFT、SURF等),定位出手部的关键点。这些关键点可以用于后续的手部动作识别和描述(21个手部关键点)。关键点标注:对于每个定位到的关键点,需要在图像上进行标注,以便在后续的分析和处理中使用。可以使用点或其他形状来表示关键点的位置。关键点描述:根据需要,可以对关键点进行进一步地描述,例如计算关键点之间的距离、角度等信息。这有助于了解手部结构的复杂性和其他特征信息。

本发明实施例在捕捉手指轨迹时,可使用图像跟踪算法(如光流法、camshift等)或机器学习&深度学习技术(如KCF、基于深度学习的手势识别等)来捕获手指轨迹。

本发明实施例的交互方法在实现手指轨迹交互时,还可结合其他输入设备,如鼠标、键盘等确定操作意图。具体地,将手指轨迹与鼠标、键盘等的使用情况相结合,以更准确地判断用户的操作意图。

本发明实施例的交互方法在实现手指轨迹交互时,还可结合上下文信息,即考虑用户当前所在的应用程序或场景,结合手指轨迹和其他上下文信息,以更准确地判断用户的意图。例如,在音乐播放器中,用户的滑动手势可表示调整音量,而在相机应用中,滑动手势可表示切换拍摄模式。

本发明实施例的交互方法在实现手指轨迹交互时,可收集大量用户的手指轨迹数据,并对其进行分析和学习。通过不断优化算法和模型,提高对用户意图的判断准确性。即可以对特定人的一些手指进行DIY学习。

本发明实施例根据主交互手的手指轨迹确定目标指令和目标对象后,可以更智能地与用户进行交互,并对文字,对图案,对自定义手势等后续的任务能做到的精准识别。

本发明实施例的交互方法在实现手指轨迹交互时,为了方便用户感知,可以实时将手部关键点的结果渲染到显示屏上。

本发明实施例的交互方法,为了能准确快速地找到主交互手,确定主交互对象后,对主交互对象对应的跟踪ID进行持续绑定和交互,为了保证精确性,对主交互对象的人体进行骨骼点检测,并根据人体骨骼点的手部关键点的位置选出需要响应的交互手(主交互手)。确定主交互手后,则可以通过记录主交互手的手指指尖的轨迹的信息为后续的识别做准备。

本发明实施例的交互方法,在检测到手部图像中存在多个交互手时,通过确定主交互手,对主交互手的指尖轨迹进行追踪识别,确定目标指令和目标对象并根据目标指令对目标对象进行控制,实现主交互手的操作意图,具有识别准确,不易被干扰的优点。

本发明提供一种交互装置。

图5是本发明一个实施例的交互装置的示意图。如图5所示,交互装置100可包括获取模块10、检测模块20、识别模块30和交互模块40。

其中,获取模块10用于获取手部图像;检测模块20用于当检测到手部图像中存在多个交互手时,确定主交互手;识别模块30用于识别主交互手的第一手指轨迹,并根据第一手指轨迹确定目标指令和目标对象;交互模块40用于根据目标指令对目标对象进行控制。

需要说明的是,本发明实施例的交互装置的其他具体实施方式可参见本发明上述实施例的交互方法的其他具体实施方式。

本发明实施例的交互装置,在检测到手部图像中存在多个交互手时,通过确定主交互手,对主交互手的指尖轨迹进行追踪识别,确定目标指令和目标对象并根据目标指令对目标对象进行控制,实现主交互手的操作意图,具有识别准确,不易被干扰的优点。

本发明提供一种计算机可读存储介质。

在该实施例中,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时,实现如上述的交互方法。

本发明提供一种电子设备。

在该实施例中,电子设备包括存储器、处理器,存储器上存储有计算机程序,其特征在于,计算机程序被处理器执行时,实现如上述的交互方法。

图6是本发明实施例的电子设备的结构框图。

如图6所示,电子设备500包括:处理器501和存储器503。其中,处理器501和存储器503相连,如通过总线502相连。可选地,电子设备500还可以包括收发器504。需要说明的是,实际应用中收发器504不限于一个,该电子设备500的结构并不构成对本发明实施例的限定。

处理器501可以是CPU(CentralProcessingUnit,中央处理器),通用处理器,DSP(DigitalSignalProcessor,数据信号处理器),ASIC(ApplicationSpecificIntegratedCircuit,专用集成电路),FPGA(FieldProgrammableGateArray,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本发明公开内容所描述的各种示例性的逻辑方框、模块和电路。处理器501也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。

总线502可包括一通路,在上述组件之间传送信息。总线502可以是PCI(PeripheralComponentInterconnect,外设部件互连标准)总线或EISA(ExtendedIndustryStandardArchitecture,扩展工业标准结构)总线等。总线502可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。

存储器503用于存储与本发明上述实施例的交互方法对应的计算机程序,该计算机程序由处理器501来控制执行。处理器501用于执行存储器503中存储的计算机程序,以实现前述方法实施例所示的内容。

其中,电子设备500包括但不限于:移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备500仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。

本发明实施例的计算机可读存储介质、电子设备,利用上述交互方法,实现主交互手的操作意图,具有识别准确,不易被干扰的优点。

需要说明的是,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。

应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。

在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。

此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。

在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。

在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。

尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

相关技术
  • 用于控制尾随飞行器相对前导飞行器的路径的方法和装置
  • 用于监测尾随飞行器的相对位置的方法和装置及飞行器
  • 用于控制曝光的方法、装置、视觉测量设备及无人飞行器
  • 用于飞行试验的冷气发射装置及飞行器的冷气发射方法
  • 用于隧道衬砌拱顶的内窥式防空洞监控装置及监控方法
  • 用于飞行器力纷争监控的方法和装置
  • 用于快速计算飞行器高超声速粘性力的方法和装置
技术分类

06120116548334