掌桥专利:专业的专利平台
掌桥专利
首页

图像处理方法、装置、电子设备及介质

文献发布时间:2023-06-19 12:13:22


图像处理方法、装置、电子设备及介质

技术领域

本发明涉及图像处理技术领域,特别是涉及一种图像处理及方法、装置、电子设备及介质。

背景技术

目前,人脸识别技术主要依赖于深度神经网络模型来对人脸图片进行编码,根据编码后的特征之间的距离来度量两张图片是否是同一个人。通过事先在大量的人脸数据集上来训练一个神经网络模型,训练时优化约束该网络输出特征满足同一个人脸的特征距离比较近。对于训练好的网络,网络参数固定,网络对于输入参数进行复杂的嵌套非线性转换,将图片编码成特征。

现有的深度神经网络模型可以保证在各自独特的转换下,满足同一个人脸特征比较近的约束,但不同模型对同一个人的编码特征不满足同一个人脸特征在特征空间中比较近的约束。因此,需要对比的不同图片是否是同一个人需要用同一个模型对它们提取特征。这种方法在系统人脸识别模型升级的时候需要对历史数据重新用升级后的模型重新提取特征,消耗大量算力,而且图片需要传输到部署模型的机器上提取特征,在高密视频流场景中引入大量的网络带宽消耗。

发明内容

鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种图像处理方法、装置、电子设备及介质。

依据本发明实施例的第一方面,提供了一种图像处理方法,包括:

通过第一网络模型、第二网络模型二者之一对底图进行特征提取,得到底图特征;

通过第一网络模型、第二网络模型中的另一个对待比对图像进行特征提取,得到待比对特征;

将所述待比对特征与所述底图特征进行比对,得到比对结果;

其中,所述第一网络模型和所述第二网络模型具有不同的层数和/或网络参数数量;

所述第一网络模型和所述第二网络模型满足以下条件中的至少一项:

所述第一网络模型和第二网络模型都是从第三网络模型蒸馏得到;

所述第二网络模型从第一网络模型蒸馏得到。

依据本发明实施例的第二方面,提供了一种图像处理装置,包括:

底图特征提取模块,用于通过第一网络模型、第二网络模型二者之一对底图进行特征提取,得到底图特征;

待比对特征提取模块,用于通过第一网络模型、第二网络模型中的另一个对待比对图像进行特征提取,得到待比对特征;

特征比对模块,用于将所述待比对特征与所述底图特征进行比对,得到比对结果;

其中,所述第一网络模型和所述第二网络模型具有不同的层数和/或网络参数数量;

所述第一网络模型和所述第二网络模型满足以下条件中的至少一项:

所述第一网络模型和第二网络模型都是从第三网络模型蒸馏得到;

所述第二网络模型从第一网络模型蒸馏得到。

依据本发明实施例的第三方面,提供了一种电子设备,包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如第一方面中所述的图像处理方法。

依据本发明实施例的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的图像处理方法。

本发明实施例提供的图像处理方法、装置、电子设备及介质,通过使用第一网络模型、第二网络模型二者之一对底图进行特征提取,得到底图特征,通过第一网络模型、第二网络模型中的另一个对待比对图像进行特征提取,得到待比对特征,由于第一网络模型和第二网络模型都是从第三网络模型蒸馏得到,或者第二网络模型从第一网络模型蒸馏得到,从而第一网络模型、第二网络模型和第三网络模型的投影空间一致,实现了使用不同网络模型提取到的特征均具有可比性,解决了用多个模型提取出的特征不可比的问题,从而在升级前的模型和升级后的模型之间具有蒸馏关系的时候无需对历史数据重新提取特征,节省了算力、减少带宽占用。

上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。

附图说明

通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。

图1是本发明实施例提供的一种图像处理方法的步骤流程图;

图2是本发明实施例中的学生网络模型的训练过程的步骤流程图;

图3是本发明实施例提供的一种图像处理装置的结构框图。

具体实施方式

下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。

图1是本发明实施例提供的一种图像处理方法的步骤流程图,如图1所示,该方法可以包括:

步骤101,通过第一网络模型、第二网络模型二者之一对底图进行特征提取,得到底图特征。

其中,所述底图为底库中存储的图像。对于每个底图,可以预先使用第一网络模型和第二网络模型中的一个网络模型提取特征,得到底图特征,并将地图特征与底图进行对应存储。例如,对于人脸特征,可以预先对底库中的人脸图像进行特征提取,并将提取到的人脸特征与其对应的人脸信息(例如人脸图像、人脸ID等)进行对应存储,以用于对拍摄到的待比对图像进行检索或识别。

步骤102,通过第一网络模型、第二网络模型中的另一个对待比对图像进行特征提取,得到待比对特征。

与提取底图特征时使用的网络模型不同,在对待比对图像进行特征提取时,使用第一网络模型和第二网络模型中的另一个网络模型对待比对图像进行特征提取,得到待比对特征。

其中,所述第一网络模型和所述第二网络模型具有不同的层数和/或网络参数数量。限于终端设备的内部资源,第一网络模型和第二网络模型中规模较小的网络模型可以部署于终端设备内,在终端设备获取到待比对图像后,可以使用第一网络模型和第二网络模型中规模较小的网络模型对待比对图像进行特征提取,得到待比对特征,并将待比对特征发送至服务器,由服务器对待比对特征与底图特征进行比对,可以避免发送待比对图像,减少了对网络带宽的消耗。当然,第一网络模型和第二网络模型也可以是同时部署在服务器中的模型。

步骤103,将所述待比对特征与所述底图特征进行比对,得到比对结果。

其中,所述第一网络模型和所述第二网络模型满足以下条件中的至少一项:

所述第一网络模型和第二网络模型都是从第三网络模型蒸馏得到;

所述第二网络模型从第一网络模型蒸馏得到。

第二网络模型可以是第一网络模型升级后的模型或者是由第一网络模型衍生而来的模型,例如第一网络模型是用于服务器的层数更多、参数量更多的模型,可由第一网络模型蒸馏得到一个用于终端的层数更少、参数量更少的第二网络模型。

或者,第一网络模型和第二网络模型都是从第三网络模型升级而来或衍生而来,例如,第三网络模型是用于服务器的层数更多、参数量更多的模型,可由第三网络模型蒸馏得到用于终端的层数更少、参数量更少的第一、第二网络模型。

本申请实施例中,第一由于第一网络模型和第二网络模型都是从第三网络模型蒸馏得到,或者第二网络模型从第一网络模型蒸馏得到,所以分别使用第一网络模型和第二网络模型提取到的底图特征和待比对特征具有可比性。如此,当用于抽取待比对图像特征的网络模型、用于抽取底图特征的网络模型二者之一进行了升级或衍生时,只要用于抽取待比对图像特征的网络模型、用于抽取底图特征的网络模型满足一定的蒸馏关系,仍然可用二者分别抽取待比对图像和底图的特征,并得到准确率可接受的比对结果(例如,比对结果可以是与待比对特征匹配的底图特征,或者也可以是未匹配到对应的底图特征)。也就是说,本发明实施例使得不同模型提取的特征可以比较,突破了待比对特征和底图特征必须由单一模型提取的限制。相反,如果第一网络模型和第二网络模型不具备上述蒸馏关系,即便待比对图像和底图属于同一对象,待比对特征与所述底图特征也是不可比的,将待比对特征与所有的底图特征进行比对,得到比对结果一定是不匹配的。

此外,由于本申请实施例实现了使用不同网络模型提取到的特征均具有可比性,解决了用多个模型提取出的特征不可比的问题,从而升级前的模型和升级后的模型之间具有蒸馏关系的时候无需对历史数据重新提取特征,节省了算力、减少传输重新提取的特征而造成的带宽占用。

在本发明的一个实施例中,当第一网络模型和第二网络模型都是从第三网络模型蒸馏得到时,所述第一网络模型、所述第二网络模型和所述第三网络模型的共享投影基;当所述第二网络模型从所述第一网络模型蒸馏得到时,所述第一网络模型和所述第二网络模型共享投影基。如此,可使第一网络模型提取的特征和第二网络模型提取的特征的每一个维度的投影在特征空间中坐标相互对应,如此,可以进一步提高第一网络模型和第二网络模型的可比程度,从而可以提高待比对图像与底图的比对准确性。

在本发明的一个实施例中,当第一网络模型和第二网络模型都是从第三网络模型蒸馏得到时,所述第一网络模型、所述第二网络模型和所述第三网络模型的最后一层为具有相同网络参数的全连接层;当所述第二网络模型从所述第一网络模型蒸馏得到时,所述第一网络模型和所述第二网络模型的最后一层为具有相同网络参数的全连接层。在本实施例中,网络模型通过使用具有相同网络参数的全连接层共享投影基,这样第一网络模型、第二网络模型和第三网络模型的投影空间一致、共享投影基,进一步提高了第一网络模型和第二网络模型的特征可比的程度,从而可以提高待比对图像与底图的比对准确性。

在上述技术方案的基础上,该图像处理方法还包括学生网络模型的训练过程。图2是本发明实施例中的学生网络模型的训练过程的步骤流程图,如图2所示,学生网络模型的训练过程可以包括:

步骤201,获取训练完成的教师网络模型最后一层全连接层的网络参数。

其中,所述教师网络模型可以是第一网络模型或第三网络模型。教师网络模型是训练完成的网络模型,可以作为其他网络模型蒸馏的基础。

步骤202,将所述教师网络模型最后一层全连接层的网络参数赋值给所述学生网络模型的最后一层全连接层。

其中,教师网络模型和学生网络模型均为特征提取模型,当然,也可以是其他的特征提取模型。教师网络模型是已有的网络模型,已经训练完成。学生网络模型是要进行训练的模型,且经过训练能够得到与教师网络模型具有特征可比性的模型。教师网络模型和学生网络模型均有全连接层。

在已有教师网络模型的情况下,想要获得一个与教师网络模型具有特征可比性的学生网络模型时,可以首先构造一个新的神经网络模型,作为学生网络模型,学生网络模型的结构不受教师网络模型的限制,可以是任何大小结构的神经网络。网络模型通过最后一个全连接层输出特征,因此网络模型中的最后一层全连接层具有特征映射的作用,为了使得学生网络模型与教师网络模型能够共享特征空间,将教师网络模型最后一层全连接层的网络参数赋值给学生网络模型的最后一层全连接层,使得学生网络模型最后一层全连接层的网络参数与教师网络模型最后一层全连接层的网络参数相同,以便于得到与教师网络模型相同特征空间的学生网络模型。

步骤203,根据所述教师网络模型,对所述学生网络模型进行蒸馏训练,直到得到训练好的学生网络模型;在训练过程中保持所述学生网络模型的最后一层全连接层的网络参数不变。

其中,当所述第一网络模型和第二网络模型都是从第三网络模型蒸馏得到时,所述教师网络模型为第三网络模型,所述训练好的学生网络模型为第一网络模型和第二网络模型;当所述第二网络模型从第一网络模型蒸馏得到时,所述教师网络模型为第一网络模型,所述训练好的学生网络模型为第二网络模型。

在学生网络模型构造完成后,可以对学生网络模型中除最后一层全连接层外的网络参数进行初始化,之后基于教师网络模型和训练样本对学生网络模型进行蒸馏训练,使得学生网络模型学习教师网络模型的特征提取行为,从而提高学生网络模型的特征空间与教师网络模型的特征空间的相似度,使得学生网络模型和教师网络模型具有同源性,具有一定的兼容性,而且在训练过程中,对学生网络模型最后一层全连接层的网络参数保持不变,即保证学生网络模型与教师网络模型的特征投影空间一致,以保证学生网络模型训练完成后所提取出的特征与教师网络模型提取出的特征在每个维度所代表的语义是一致的。

在本发明的一个实施例中,所述根据所述教师网络模型,对所述学生网络模型进行蒸馏训练,直到得到训练好的学生网络模型,包括:

将训练样本输入教师网络模型,得到第一特征;

根据训练样本对学生网络模型进行训练;其中,所述根据训练样本对学生网络模型进行训练,包括:

将训练样本输入学生网络模型,得到第二特征;

根据所述训练样本的标注数据和第二特征,确定所述学生网络模型的损失函数值;

根据所述第一特征和第二特征,确定所述学生网络模型相对于所述教师网络模型的蒸馏损失值;

根据所述损失函数值和蒸馏损失值,对所述学生网络模型除最后一层全连接层外的网络参数进行更新;

循环执行上述根据训练样本对所述学生网络模型进行训练的操作,直至学生网络模型的网络参数收敛,得到训练好的学生网络模型。

其中,所述损失函数包括三元组损失(Triplet Loss)函数或者对比损失(Contrastive Loss)函数。所述蒸馏损失值可以是第一特征和第二特征之间的距离,所述距离例如可以是L2距离,当然,也可以是其他距离。

在基于教师网络模型对学生网络模型进行蒸馏训练时,首先从训练样本集合中选取一个或一批(多个)训练样本,将选取到的训练样本分别输入教师网络模型和学生网络模型,通过教师网络模型对训练样本进行前向推导得到第一特征,通过学生网络模型对训练样本进行前向推导得到第二特征;根据训练样本的标注数据和第二特征,计算学生网络模型的损失函数值,同时根据第一特征和第二特征,计算学生网络相对于教师网络模型的蒸馏损失值;结合损失函数值和蒸馏损失值对学生网络模型除最后一层全连接层外的网络参数进行更新,保证最后一层全连接层的网络参数不变;再选取下一个或下一批训练样本,并执行上述对学生网络模型的训练操作,直至学生网络模型的网络参数收敛,得到训练完成的学生网络模型。在对学生网络模型的训练过程中,始终保持学生网络模型的最后一层全连接层的网络参数不变,即始终保持学生网络模型的最后一层全连接层的网络参数与教师网络模型的最后一层全连接层的网络参数相同,以保证学生网络模型可以和教师网络模型共享特征空间,而且通过蒸馏损失值可以约束第二特征与第一特征尽可能相似。

在本发明的一个实施例中,根据所述损失函数值和蒸馏损失值,对所述学生网络模型除最后一层全连接层外的网络参数进行更新,包括:根据所述损失函数值和蒸馏损失值,确定整体损失值;根据所述整体损失值对所述学生网络模型除最后一层全连接层外的网络参数进行更新。

对损失函数值和蒸馏损失值进行一个整体计算,得到整体损失值,进而根据整体损失值对学生网络模型除最后一层全连接层外的网络参数进行更新。通过损失函数值保证学生网络模型的训练目标,通过蒸馏损失保证学生网络模型输出的第二特征与教师网络模型输出的第一特征尽可能相似,使得训练完成的学生网络模型与教师网络模型具有特征可比性。

在一种可行的实施方式中,根据所述损失函数值和蒸馏损失值,确定整体损失值,可选包括:

将所述损失函数值与所述蒸馏损失值的和,作为所述整体损失值;或者

根据所述损失函数值的预设权重和蒸馏损失值的预设权重,对所述损失函数值和蒸馏损失值进行加权求和,得到整体损失值。

在确定损失函数值和蒸馏损失值对应的整体损失值时,可以将损失函数值与蒸馏损失值的和,作为整体损失值,或者,用户还可以根据需要预先设置损失函数值和蒸馏损失值的权重,得到损失函数值的预设权重和蒸馏损失值的预设权重,从而可以根据损失函数值的预设权重和蒸馏损失值的预设权重,对损失函数值和蒸馏损失值进行加权求和,将加权求和的结果作为整体损失值。

在一种场景中,教师网络模型可以是需要升级的网络模型,而该教师网络模型已经对底库图片进行了特征提取,为了避免利用升级后的模型重新对底库图片进行特征提取,这时在对教师网络模型进行升级时,可以构造一个学生网络模型,并通过本申请实施例的方法根据教师网络模型对学生网络模型进行蒸馏训练,保证学生网络模型最后一层全连接层的网络参数与教师网络模型最后一层全连接层的网络参数一致,从而可以实现学生网络模型与教师网络模型的特征可比性,不必再利用学生网络模型重新对底库图片进行特征提取,使用学生网络模型对抓拍到的图片进行特征提取后可以直接与教师网络模型提取的底库图片的特征进行比对。

在另一种场景中,教师网络模型还可以是一个精度比较高的大模型,该模型对资源要求较高,不适合部署于用户终端,但是要提取用户终端获取到的图片的特征时现有技术会将用户终端获取到的图片传输到后台服务器进行特征提取,这就要消耗大量的网络带宽,为了解决这个问题,可以通过本发明实施例的方法来蒸馏训练得到一个与教师网络模型共享特征空间的小模型,该小模型的占用资源较少,可以部署于用户终端,从而用户终端可以直接对获取到的图片提取特征,只将提取到的特征传输到后台服务器,后台服务器可以将用户终端传回的特征与大模型提取的底库图片中的特征进行比对,这样减少了网络带宽的消耗,而且两个模型也具有了特征可比性。

在对学生网络模型进行训练时,通过获取训练完成的教师网络模型最后一层全连接层的网络参数,将教师网络模型最后一层全连接层的网络参数赋值给学生网络模型的最后一层全连接层,根据教师网络模型对学生网络模型进行蒸馏训练,在训练过程中保持学生网络模型的最后一层全连接层的网络参数不变,这样保证了学生网络模型与教师网络模型共享投影基,使得学生网络模型训练完成后的输出特征的每一维度与教师网络模型输出特征的维度在特征空间中是对应的,实现了学生网络模型和教师网络模型的特征可比性,解决了用多个模型提取到的特征不可比的问题,从而在升级前的模型和升级后的模型之间具有蒸馏关系的时候无需对历史数据重新提取特征,节省了算力,而且可以将学生网络模型部署到抓拍图片的机器上直接提取图片的特征,只需传输提取到的特征,减少了网络带宽的消耗。

需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。

图3是本发明实施例提供的一种图像处理装置的结构框图,如图3所示,该图像处理装置可以包括:

底图特征提取模块301,用于通过第一网络模型、第二网络模型二者之一对底图进行特征提取,得到底图特征;

待比对特征提取模块302,用于通过第一网络模型、第二网络模型中的另一个对待比对图像进行特征提取,得到待比对特征;

特征比对模块303,用于将所述待比对特征与所述底图特征进行比对,得到比对结果;

其中,所述第一网络模型和所述第二网络模型具有不同的层数和/或网络参数数量;

所述第一网络模型和所述第二网络模型满足以下条件中的至少一项:

所述第一网络模型和第二网络模型都是从第三网络模型蒸馏得到;

所述第二网络模型从第一网络模型蒸馏得到。

可选的,当第一网络模型和第二网络模型都是从第三网络模型蒸馏得到时,所述第一网络模型、所述第二网络模型和所述第三网络模型的最后一层为具有相同网络参数的全连接层;当所述第二网络模型从所述第一网络模型蒸馏得到时,所述第一网络模型和所述第二网络模型的最后一层为具有相同网络参数的全连接层。

可选的,所述装置还包括:

网络参数获取模块,用于获取训练完成的教师网络模型最后一层全连接层的网络参数;

网络参数赋值模块,用于将所述教师网络模型最后一层全连接层的网络参数赋值给学生网络模型的最后一层全连接层;

网络模型训练模块,用于根据所述教师网络模型,对所述学生网络模型进行蒸馏训练,直到得到训练好的学生网络模型;在训练过程中保持所述学生网络模型的最后一层全连接层的网络参数不变;

其中,当所述第一网络模型和第二网络模型都是从第三网络模型蒸馏得到时,所述教师网络模型为第三网络模型,所述训练好的学生网络模型为第一网络模型和第二网络模型;当所述第二网络模型从第一网络模型蒸馏得到时,所述教师网络模型为第一网络模型,所述训练好的学生网络模型为第二网络模型。

可选的,所述网络模型训练模块包括:

第一特征获取单元,用于将训练样本输入教师网络模型,得到第一特征;

模型训练单元,用于根据训练样本对所述学生网络模型进行训练,所述模型训练单元包括:

第二特征获取子单元,用于将训练样本输入学生网络模型,得到第二特征;

损失值确定子单元,用于根据所述训练样本的标注数据和第二特征,

确定所述学生网络模型的损失函数值;

蒸馏损失值确定子单元,用于根据所述第一特征和第二特征,确定所述学生网络模型相对于所述教师网络模型的蒸馏损失值;

网络参数更新子单元,用于根据所述损失函数值和蒸馏损失值,对所述学生网络模型除最后一层全连接层外的网络参数进行更新;

训练控制单元,用于循环执行上述根据训练样本对所述学生网络模型进行训练的操作,直至学生网络模型的网络参数收敛,得到训练好的学生网络模型。

可选的,所述网络参数更新子单元包括:

整体损失值确定子模块,用于根据所述损失函数值和蒸馏损失值,确定整体损失值;

网络参数更新子模块,用于根据所述整体损失值对所述学生网络模型除最后一层全连接层外的网络参数进行更新。

可选的,所述整体损失值确定子模块具体用于:

将所述损失函数值与所述蒸馏损失值的和,作为所述整体损失值;或者

根据所述损失函数值的预设权重和蒸馏损失值的预设权重,对所述损失函数值和蒸馏损失值进行加权求和,得到整体损失值。

可选的,所述损失函数包括三元组损失函数或者对比损失函数。

本实施例提供的图像处理装置,通过使用第一网络模型、第二网络模型二者之一对底图进行特征提取,得到底图特征,使用第一网络模型、第二网络模型中的另一个对待比对图像进行特征提取,得到待比对特征,由于第一网络模型和第二网络模型都是从第三网络模型蒸馏得到,或者第二网络模型从第一网络模型蒸馏得到,从而第一网络模型、第二网络模型和第三网络模型的投影空间一致,实现了使用不同网络模型提取到的特征均具有可比性,解决了用多个模型提取出的特征不可比的问题,从而在升级前的模型和升级后的模型之间具有蒸馏关系的时候无需对历史数据重新提取特征,节省了算力、减少带宽占用。

对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

进一步地,根据本发明的一个实施例,提供了一种电子设备,所述电子设备可以为计算机、服务器等,所述电子设备包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现前述实施例的图像处理方法。

根据本发明的一个实施例,还提供了一种计算机可读存储介质,所述计算机可读存储介质包括但不限于磁盘存储器、CD-ROM、光学存储器等,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现前述实施例的图像处理方法。

本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。

本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。

最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。

以上对本发明所提供的一种图像处理方法、装置、电子设备及介质,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

相关技术
  • 应用于电子设备的图像处理方法、装置、电子设备、介质
  • 图像处理方法、存储介质、电子设备及图像处理装置
技术分类

06120113211688