掌桥专利:专业的专利平台
掌桥专利
首页

基于视频流的车牌识别方法、装置、计算设备及存储介质

文献发布时间:2023-06-19 19:28:50


基于视频流的车牌识别方法、装置、计算设备及存储介质

技术领域

本发明涉及计算机视觉和图像识别技术领域,具体涉及一种基于视频流的车牌识别方法、装置、计算设备及存储介质。

背景技术

对于各种复杂复杂场景下的的车牌进行准确快速的识别,能够有效提升交通执法、停车场管理和道路通行的效率。目前对于车牌识别主要基于深度学习方法,直接对图像中的车牌进行定位,并对车牌内容进行识别。

现有技术中公开了一种基于深度学习的车牌识别系统,其中,在检测到视频中有车辆进入时,触发识别功能,通过车牌识别定位模型识别和定位图像中车牌所在的相对位置;通过车牌内容识别模型,识别定位车牌的类别、尺寸、颜色和文字信息。这种方法需要两个模型进行检测,检测步骤较繁琐,并且将车牌作为大场景中的小目标,检测效率低,需要设备有较高的计算量,不适用于低算力平台。

因此,需要一种基于视频流的车牌识别方法,能够在轻量化设备上提高复杂场景视频流车牌识别精度和效率,以解决以上现有技术中存在的问题。

发明内容

鉴于上述问题,为了提高实现低算力设备上进行复杂场景视频流车牌识别,本方案提出了一种基于视频流的车牌识别方法、装置、计算设备及存储介质,能够减少车牌识别对图片分辨率的依赖,降低学习难度,提高识别精度。

根据本发明的第一方面,提供一种基于视频流的车牌识别方法,包括:首先,获取待识别视频流;然后,将待识别视频流依次输入训练好的车辆和车牌检测模型的第一慢通道网络和第一快通道网络中进行车辆和车牌位置检测,得到序列帧的车牌区域图像和时序特征;接着,将序列帧的车牌区域图像和时序特征依次输入训练好的车牌识别模型的第二慢通道网络和第二快通道网络中进行车牌识别,得到序列帧的车牌识别结果和时序特征;最后,根据序列帧的车牌识别结果和时序特征输出待识别视频流的车牌识别结果。

本方案提供的车牌识别方法,通过学习车辆与车牌之间的空间位置信息,根据车辆与车牌之间的相对位置确定车牌大致区域,可以减少车牌对图片分辨率的依赖,降低学习难度;通过快慢交替提取输入视频帧的不同特征,能够综合多帧识别信息的同时,显著降低计算资源需求,提高识别精度和速度。

可选地,在上述方法中,训练好的车辆和车牌检测模型包含并联的第一慢通道网络和第一快通道网络以及第一ConvLSTM特征融合网络,第一慢通道网络包括1个第一慢通道模块,第一快通道网络包含5个串联的第一快通道模块。

可选地,在上述方法中,第一快通道模块使用mobilenetv2作为主干,FPN作为颈部模块,centernet的头部模块作为预测分支,用于通过第一时间步长提取输入图像的第一特征;第一慢通道模块使用mobilenetv3作为主干,FPN作为颈部模块,centernet的头部模块作为预测分支,用于通过第二时间步长提取输入图像的第二特征,第一时间步长小于第二时间步长;第一ConvLSTM特征融合网络用于将第一快通道网络得到的第一特征与第一慢通道网络得到的第二特征融合,以便根据融合后的特征得到输入图像的车辆和车牌位置和时序特征。

可选地,在上述方法中,训练好的车牌识别模型包含并联的第二慢通道网络和第二快通道网络以及第二ConvLSTM特征融合网络,第二慢通道网络包括1个第二慢通道模块,第二快通道网络包括3个串联的第二快通道模块。

可选地,在上述方法中,第二快通道模块使用mobilenetv2作为主干,crnn作为识别预测网络,用于通过第三时间步长提取输入图像的第三特征。第二慢通道模块使用mobilenetv3作为主干,crnn作为识别预测网络,用于通过第四时间步长提取输入图像的第四特征,第三时间步长小于第四时间步长。第二ConvLSTM特征融合网络用于将第二快通道网络得到的第三特征与第二慢通道网络得到的第四特征融合,以便根据融合后的特征得到输入图像的车牌识别结果和时序特征。

可选地,在上述方法中,在车牌区域检测任务中,可以通过下述步骤执行:

S1、将当前帧图像输入训练好的车辆和车牌检测模型的第一慢通道网络中进行检测,得到当前帧图像的车辆和车牌位置和第一时序特征,基于当前帧图像的车辆和车牌位置确定当前帧图像的第一车牌区域图像;

S3、将下一帧图像和第一时序特征输入训练后的车辆和车牌检测模型的第一快通道网络中进行检测,得到下一帧图像的车辆和车牌位置和第三时序特征,基于下一帧图像的车辆和车牌位置确定下一帧的第二车牌区域图像;

重复执行步骤S1和S3,直到完成所有序列帧的车辆与车牌位置检测。

可选地,在上述方法中,在车牌识别任务中,可以通过下述步骤执行:

S2、将第一车牌区域图像输入训练好的车牌识别模型的第二慢通道网络中进行识别,得到当前帧图像的车牌识别结果和第二时序特征;

S4、将第二车牌区域图像和第二时序特征输入训练后的车牌识别模型的第二快通道网络中进行识别,得到下一帧图像的车牌识别结果和第四时序特征;

重复步骤S2和S4,直到完成所有序列帧的车牌识别。

根据本发明的第二方面,提供一种基于视频流的车牌识别装置,其特征在于,包括:获取模块、车牌区域检测模块、车牌识别模块和输出模块。其中,获取模块,用于获取待识别视频流;

车牌区域检测模块,用于将待识别视频流依次输入训练好的车辆和车牌检测模型的第一慢通道网络和第一快通道网络中进行车辆和车牌位置检测,得到序列帧的车牌区域图像和时序特征;

车牌识别模块,用于将序列帧的车牌区域图像和时序特征依次输入训练好的车牌识别模型的第二慢通道网络和第二快通道网络中进行车牌识别,得到序列帧的车牌识别结果和时序特征;输出模块,用于根据序列帧的车牌识别结果和时序特征输出待识别视频流的车牌识别结果。

根据本发明的第三方面,提供一种计算设备,包括存储器、处理器以及储存在存储器上并可在处理器上运行的计算机程序,处理器执行如第一方面所述的基于视频流的车牌识别方法。

根据本发明的第四方面,提供一种计算机可读存储介质,包括存储有能够被处理器加载并执行如第一方面所述的基于视频流的车牌识别方法的计算机程序。

根据本发明的方案,将车牌检测问题转换为学习车辆和车牌空间位置,并基于车辆中心点和车牌中心点之间的距离确定车牌大致区域,能够减少车牌检测对输入图片分辨率的依赖,降低算法学习难度;并通过快慢通道两种特征提取网络交替执行特征提取任务,能够保持计算速度和精度的平衡,通过综合多帧车牌识别结果,显著提高了识别精度。因此,本方案所提供的的基于视频流的车牌识别方法能够在低算力设备上运行,适用于大场景车牌视频流的高精度、实时性车牌识别。

上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。

附图说明

通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:

图1示出了根据本发明一个实施例的计算设备100的结构示意图;

图2示出了根据本发明一个实施例的训练好的车辆和车牌检测模型的网络结构示意图;

图3示出了根据本发明一个实施例的训练好的车牌识别模型的网络结构图;

图4示出了根据本发明一个实施例的基于视频流的车牌识别方法400的流程示意图;

图5示出了根据本发明一个实施例的基于视频流的车牌识别方法的交错模型示意图图;

图6示出了根据本发明一个实施例的基于视频流的车牌识别装置600的结构示意图。

具体实施方式

下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。

基于视频流的车牌识别是通过摄像头对车辆信息进行动态采集得到包含车辆的视频流,然后对视频流进行处理识别出车牌信息。现有技术中以整张图像作为检测对象,将车牌图像分割和车牌内容识别分为两步进行,计算量大,容易受外界客观因素的影响。并且两个模型之间容易出现累计误差,从而影响整个模型的识别精度。

由于视频目标检测相对于图像目标检测,视频是高度冗余的,包含了大量的时间局部性和空间局部性,充分利用时序上下文关系可以解决视频流中连续帧之间的大量冗余问题,提高检测速度。

因此,为了提高对于复杂场景下视频流车牌识别的精度和速度,降低模型的计算量,本方案提出了一种基于视频流的车牌识别方法,能够应用于低算力设备上,通过深度学习算法获取车辆与车牌的空间相对位置,能够减少车牌识别对输入图像分辨率的依赖,降低算法学习难度,并结合slowfast算法思想,使用两种不同计算帧率的网络进行特征提取,能够在降低模型计算量的同时,提高识别精度。

图1示出了根据本发明一个实施例的计算设备100的结构示意图。如图1所示,在基本配置102中,计算设备100典型地包括系统存储器106和一个或者多个处理器104。存储器总线108可以用于在处理器104和系统存储器106之间的通信。

取决于期望的配置,处理器104可以是任何类型的处理器,包括但不限于:微处理器(μP)、微控制器(μC)、数字信息处理器(DSP)或者它们的任何组合。处理器104可以包括诸如一级高速缓存110和二级高速缓存112之类的一个或者多个级别的高速缓存、处理器核心114和寄存器116。示例的处理器核心114可以包括运算逻辑单元(ALU)、浮点数单元(FPU)、数字信号处理核心(DSP核心)或者它们的任何组合。示例的存储器控制器118可以与处理器104一起使用,或者在一些实现中,存储器控制器118可以是处理器104的一个内部部分。

取决于期望的配置,系统存储器106可以是任意类型的存储器,包括但不限于:易失性存储器(诸如RAM)、非易失性存储器(诸如ROM、闪存等)或者它们的任何组合。计算设备中的物理内存通常指的是易失性存储器RAM,磁盘中的数据需要加载至物理内存中才能够被处理器104读取。系统存储器106可以包括操作系统120、一个或者多个应用122以及程序数据124。在一些实施方式中,应用122可以布置为在操作系统上由一个或多个处理器104利用程序数据124执行指令。操作系统120例如可以是Linux、Windows等,其包括用于处理基本系统服务以及执行依赖于硬件的任务的程序指令。应用122包括用于实现各种用户期望的功能的程序指令,应用122例如可以是浏览器、即时通讯软件、软件开发工具(例如集成开发环境IDE、编译器等)等,但不限于此。当应用122被安装到计算设备100中时,可以向操作系统120添加驱动模块。

在计算设备100启动运行时,处理器104会从存储器106中读取操作系统120的程序指令并执行。应用122运行在操作系统120之上,利用操作系统120以及底层硬件提供的接口来实现各种用户期望的功能。当用户启动应用122时,应用122会加载至存储器106中,处理器104从存储器106中读取并执行应用122的程序指令。

计算设备100还包括储存设备132,储存设备132包括可移除储存器136和不可移除储存器138,可移除储存器136和不可移除储存器138均与储存接口总线134连接。

计算设备100还可以包括有助于从各种接口设备(例如,输出设备142、外设接口144和通信设备146)到基本配置102经由总线/接口控制器130的通信的接口总线140。示例的输出设备142包括图形处理单元148和音频处理单元150。它们可以被配置为有助于经由一个或者多个A/V端口152与诸如显示器或者扬声器之类的各种外部设备进行通信。示例外设接口144可以包括串行接口控制器154和并行接口控制器156,它们可以被配置为有助于经由一个或者多个I/O端口158和诸如输入设备(例如,键盘、鼠标、笔、语音输入设备、触摸输入设备)或者其他外设(例如打印机、扫描仪等)之类的外部设备进行通信。示例的通信设备146可以包括网络控制器160,其可以被布置为便于经由一个或者多个通信端口164与一个或者多个其他计算设备162通过网络通信链路的通信。

网络通信链路可以是通信介质的一个示例。通信介质通常可以体现为在诸如载波或者其他传输机制之类的调制数据信号中的计算机可读指令、数据结构、程序模块,并且可以包括任何信息递送介质。“调制数据信号”可以这样的信号,它的数据集中的一个或者多个或者它的改变可以在信号中编码信息的方式进行。作为非限制性的示例,通信介质可以包括诸如有线网络或者专线网络之类的有线介质,以及诸如声音、射频(RF)、微波、红外(IR)或者其它无线介质在内的各种无线介质。这里使用的术语计算机可读介质可以包括存储介质和通信介质二者。在根据本发明的计算设备100中,应用122包括用于执行本发明的基于视频流的车牌识别方法400的指令。

本发明提供的轻量化视频流车牌识别方法包含车牌检测和车牌信息识别两个任务。其中车牌检测部分,将车牌检测和车辆检测相结合,因此本方案设计了用于检测车辆和车牌大致区域的车辆与车牌检测模型,以便通过视频流中的车辆与车牌之间的相对位置来辅助检测车牌。

基于slow network和fast network算法思想,本方案使用两种不同特征提取精度的网络分别提取视频帧的不同特征。fast network使用小时间步长以较高的帧率快速提取视频帧的弱特征,准确度较差。Slow network使用大时间步长以较低帧率提取视频帧的精确特征。时间步长越大,特征提取的准确性越低,时间步长越小,特征提取的准确性越高,可以通过两种不同精度的特征提取网络交替处理视频帧。最后,通过ConvLSTM特征融合结构对slownetwork和fast network进行特征融合,基于融合后的特征对车辆和车牌位置进行检测。

图2示出了根据本发明一个实施例的训练好的车辆与车牌检测模型的结构示意图。如图2所示,经过训练后的车辆与车牌检测模型包括并联的第一慢通道网络和第一快通道网络,以及第一ConvLSTM特征融合网络,其中,第一慢通道网络包括1个第一慢通道模块,第一快通道网络包含5个串联的第一快通道模块。

其中,可以基于异步模式和量化模型,提高系统计算效率,即,采用快通道网络提取图像特征,采用慢通道网络计算特征和更新存储特征。并且量化模型能够对模型进行压缩,消除重新缩放的需求。

根据本发明的一个实施例,第一快通道模块使用mobilenetv2作为主干,FPN作为颈部模块,centernet的头部模块作为预测分支,用于通过第一时间步长提取图像的第一特征。其中,快通道指的是采样帧率较快,在时间分辨率上具有保真性,因此第一特征为弱特征,精确度较低。

第一慢通道模块使用mobilenetv3作为主干,FPN作为颈部模块,centernet的头部模块作为预测分支,用于通过第二时间步长,主要提取输入图像的空间特征。第一时间步长小于第二时间步长,例如第一时间步长为2,第二时间步长为16。也就是说,慢通道的采样帧率较小,每16帧提取一帧,因此,第二特征为强特征,精度较高。

其中,mobilenetv2网络主要使用瓶颈残差模块进行特征提取,mobilenetv3网络在瓶颈残差模块中加入SE结构,使用ReLU6(x+3)/6来近似替代sigmoid,减少第一个卷积层的卷积核个数(32变为16)。mobilenetv3的模型初始化时间和推理时间比mobilenetv2要慢一些,因此,本方案将mobilenetv3用于慢通道网络,将mobilenetv2用于快通道网络。

可以使用FPN特征金字塔网络不同的时间维度和特征尺度的特征图进行融合。最后使用centernet对每个通道的输出进行全局平均池化和特征向量连接,最后输出三个预测分支,分别是车牌位置热图预测分支、车辆中心点到车牌中心点的距离预测分支、车牌尺寸预测分支。

在对预先构建的模型进行训练时,可以收集卡口场景的车辆视频流数据5000段,每个视频段帧率为25fps,时长30秒,将收集的视频段标注每帧图像中的车辆和车牌位置和车牌识别结果,作为训练数据输入模型。基于centernet的损失函数对模型迭代训练160个周期,得到训练后的车辆和车牌检测模型,每1次第一慢通道模块接5次第一快通道模块。

第一ConvLSTM特征融合网络用于将第一快通道网络得到的第一特征与第一慢通道网络得到的第二特征进行融合。ConvLSTM将LSTM中的2D的输入转换成了3D的张量,最后两个维度是空间维度(行和列)。对于每一时刻t的数据,ConvLSTM将LSTM中的一部分连接操作替换为了卷积操作,即通过当前输入和局部相邻的过去状态来进行预测,最终经过特征融合后得到输入视频帧的车辆和车牌的检测框和时序特征。

图3示出了根据本发明一个实施例的训练好的车牌识别模型的结构示意图。如图3所示,经过训练后的车牌识别模型包括并联的第二快通道网络和第二慢通道网络,以及第二ConvLSTM特征融合网络,其中,第二快通道网络包括3个串联的第二快通道模块,第二慢通道网络包括1个第二慢通道模块。

根据本发明的一个实施例,第二快通道模块使用mobilenetv2作为主干,crnn作为识别预测网络,用于通过第三时间步长提取输入图像的时序特征。第二慢通道网络使用mobilenetv3作为主干,crnn作为识别预测网络,用于通过第四时间步长提取输入图像的空间特征,第三时间步长小于第四时间步长。也就是说,第二快通道网络的的采样帧率大于第二慢通道网络的采样帧率。

其中,crnn网络即卷积循环神经网络,用于端到端对不定长文本序列进行识别,将文本识别转化为时序依赖的序列学习问题,从而有效提升文本识别准确率。

在对预先构建的车牌识别模型进行训练时,可以收集卡口场景的车辆视频流数据5000段,每个视频段帧率为25fps,时长30秒,将收集的视频段标注每帧图像中的车辆和车牌位置和车牌识别结果,作为训练数据输入模型。基于ctc损失函数对模型迭代训练200个周期,得到训练后的车牌识别模型,每1次第二慢通道模块接3次第二快通道模块。

第二ConvLSTM特征融合网络用于将第二快通道网络得到的第三特征与第二慢通道网络得到的第四特征融合得到输入图像的车牌识别结果和时序特征。

图4示出了根据本发明一个实施例的基于视频流的车牌识别方法400的流程示意图。如图4所示,该方法始于步骤S410,获取待识别视频流。

待识别视频流可以是道路摄像头监控设备采集的车辆视频流、停车场出入口或高速收费口采集的车辆视频流,由于视频流中包含车辆的视频段可能并不是连续的,因此需要对待识别视频流数据进行处理。

例如,可以对获取的原始视频流进行切片处理,处理为从车辆进入视频采集画面到车辆离开视频采集画面的视频段。

随后执行步骤S420,将待识别视频流依次输入训练好的车辆和车牌检测模型的第一慢通道网络和第一快通道网络中进行车辆和车牌位置检测,得到序列帧的车牌区域图像和时序特征。

具体可以包括:S1、将当前帧图像输入训练好的车辆和车牌检测模型的第一慢通道网络中进行检测,得到当前帧图像的车辆和车牌位置和第一时序特征。然后,基于当前帧图像的车辆和车牌位置确定当前帧图像的第一车牌区域图像。S3、将下一帧图像和第一时序特征输入训练后的车辆和车牌检测模型的第一快通道网络中进行检测,得到下一帧图像的车辆和车牌位置和第三时序特征,基于下一帧图像的车辆和车牌位置确定下一帧的第二车牌区域图像。重复执行步骤S1和S3,直到完成所有序列帧的车辆与车牌位置检测。

通过交替使用快通道和慢通道两个特征提取网络分别提取不同帧特征,能够减少计算冗余,达到速度和准确率的平衡。

随后执行步骤S430,将序列帧的车牌区域图像和时序特征依次输入训练好的车牌识别模型的第二慢通道网络和第二快通道网络中进行车牌识别,得到序列帧的车牌识别结果和时序特征。

具体可以包括:S2、将第一车牌区域图像输入训练好的车牌识别模型的第二慢通道网络中进行识别,得到当前帧图像的车牌识别结果和第二时序特征。S4、将第二车牌区域图像和第二时序特征输入训练后的车牌识别模型的第二快通道网络中进行识别,得到下一帧图像的车牌识别结果和第四时序特征。重复步骤S2和S4,直到完成所有序列帧的车牌识别。

通过交替使用快通道和慢通道两个特征提取网络分别提取不同帧特征,能够减少计算冗余,达到速度和准确率的平衡。

最后执行步骤S440,根据序列帧的车牌识别结果和时序特征输出待识别视频流的车牌识别结果。

可以将序列帧的多个车牌识别结果进行投票和交叉对比,最终得到一个准确率最高的识别结果。例如,对每个车牌字符出现的次数进行统计,选取出现次数最多的字符作为最终车牌识别结果。

因此,对于视频流的车牌识别步骤可以概括如下:将图片t输入第一慢通道网络,得到t车辆位置及对应车牌的大致区域以及第一时序特征,然后截取图片t的车牌大致区域,将图片t的车牌大致区域输入第二慢通道网络,得到t车牌识别结果及第二时序特征。

将图片t+1及第一时序特征输入第一快通道网络,得到t+1车辆位置及对应车牌的大致区域以及第三时序特征,截取图片t+1的车牌大致区域,将图片t+1的车牌大致区域及第三时序特征输入第二快通道网络,得到t+1车牌识别结果及时序特征。按照slow与fast交替规则,重复上述步骤,直至车辆离开视频画面,输出车牌识别结果。

图5示出了根据本发明一个实施例的车牌识别方法的交错模型示意图图。如图5所示,首先,输入车辆视频流序列帧:……l

图6示出了根据本发明一个实施例的基于视频流的车牌识别装置600的结构示意图。如图6所示,基于视频流的车牌识别装置600包括:获取模块610、车牌区域检测模块620、车牌识别模块630和输出模块640。

其中,获取模块610可以获取待识别视频流。车牌区域检测模块620可以将待识别视频流依次输入训练好的车辆和车牌检测模型的第一慢通道网络和第一快通道网络中进行车辆和车牌位置检测,得到序列帧的车牌区域图像和时序特征。车牌识别模块630可以将序列帧的车牌区域图像和时序特征依次输入训练好的车牌识别模型的第二慢通道网络和第二快通道网络中进行车牌识别,得到序列帧的车牌识别结果和时序特征。输出模块640可以根据序列帧的车牌识别结果和时序特征输出待识别视频流的车牌识别结果。

本申请实施例公开一种计算机可读存储介质,包括存储有能够被处理器加载并执行如上述基于视频流的车牌识别方法400的计算机程序。

其中,该计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用;计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。

通过本发明技术方案,将车牌检测问题转换为学习车辆和车牌空间位置,并基于车辆中心点和车牌中心点之间的距离确定车牌大致区域,能够减少车牌检测对输入图片分辨率的依赖,降低算法学习难度;并通过快慢通道两种特征提取网络交替执行特征提取任务,能够保持计算速度和精度的平衡,通过综合多帧车牌识别结果,显著提高了识别精度。因此,本方案所提供的的基于视频流的车牌识别方法能够在低算力设备上运行,适用于大场景车牌视频流的高精度、实时性车牌识别。

在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。

类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。

本领域那些技术人员应当理解在本文所公开的示例中的设备的模块或单元或组件可以布置在如该实施例中所描述的设备中,或者可替换地可以定位在与该示例中的设备不同的一个或多个设备中。前述示例中的模块可以组合为一个模块或者此外可以分成多个子模块。

本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。

此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。

此外,实施例中的一些在此被描述成可以由计算机系统的处理器或者由执行功能的其它装置实施的方法或方法元素的组合。因此,具有用于实施方法或方法元素的必要指令的处理器形成用于实施该方法或方法元素的装置。此外,装置实施例的在此所述的元素是如下装置的例子:该装置用于实施由为了实施该发明的目的的元素所执行的功能。

如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。

尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的而非限制性的,本发明的范围由所附权利要求书限定。

技术分类

06120115919581