掌桥专利:专业的专利平台
掌桥专利
首页

图像处理方法和装置

文献发布时间:2023-06-19 10:06:57


图像处理方法和装置

技术领域

本申请涉及人工智能领域,更具体地,涉及计算机视觉领域中的图像处理方法和装置。

背景技术

计算机视觉是各个应用领域,如制造业、检验、文档分析、医疗诊断,和军事等领域中各种智能/自主系统中不可分割的一部分,它是一门关于如何运用照相机/摄像机和计算机来获取我们所需的,被拍摄对象的数据与信息的学问。形象地说,就是给计算机安装上眼睛(照相机/摄像机)和大脑(算法)用来代替人眼对目标进行识别、跟踪和测量等,从而使计算机能够感知环境。

精细分割任务在计算机视觉领域中具有广泛的应用。例如,图像的背景虚化、背景替换,电商的广告制作以及直播、电影(动画)制作等,其中,精细分割可以是指对获取的图像或者视频上的目标对象做像素级的精细化分割。例如,对于人像进行精细分割任务可以是指获取发丝区域的精细分割结果。

目前,获取图像的精细分割结果时通常需要先将图像输入至分割网络得到粗分割结果,再将图像与图像的粗分割结果同时输入至抠图网络得到图像的精细分割结果,即抠图网络需要依赖于粗分割结果才能得到图像的精细分割结果。但是,当图像的粗分割结果不准确时,将会导致图像的精细分割结果的准确性降低。

因此,如何提高待处理图像的精细分割结果的准确性成为一个亟需解决的问题。

发明内容

本申请提供了一种图像处理方法和装置,能够提高待处理图像的精细分割结果的准确性。

第一方面,提供了一种图像处理方法,包括:获取待处理图像;将该待处理图像并行地输入分割网络和抠图网络,获取所述分割网络输出的前景区域与背景区域的第一分割结果,及获取所述抠图网络输出的抠图结果;将该第一分割结果以及该抠图结果进行融合,得到该前景区域与该背景区域的第二分割结果。

需要说明的是,在本申请中第一分割结果可以是指粗分割结果,第二分割结果可以是指精细分割结果,其中,第二分割结果的精度大于第一分割结果。

在本申请中,可以将待处理图像并行地输入分割网络和抠图网络,即分割网络与抠图网络对于同一待处理图像可以并行处理,抠图网络可以不依赖于粗分割结果直接对待处理图像进行处理,通过分割网络与抠图网络之间并行对待处理图像进行处理,从而能够提高待处理图像的精细分割结果的准确性。

应理解,在本申请的实施例中将待处理图像并行地输入分割网络和抠图网络是指分别将待处理图像输入至分割网络和抠图网络进行处理并不限定待处理图像输入至分割网络和抠图网络的先后顺序,其中,分割网络和抠图网络可以是分别对待处理图像进行处理的两个网络,即抠图网络对待处理图像进行处理时可以不依赖于分割网络的分割结果。

可选地,将待处理图像并行地输入分割网络和抠图网可以是将待处理图像同时输入至分割网络和抠图网络进行处理。

可选地,将待处理图像并行地输入分割网络和抠图网可以是指将待处理图像一先一后的分别输入至分割网络与抠图网络并行处理。

在本申请的实施例中,图像处理方法可以包括:获取待处理图像,该待处理图像中包含目标对象所在的前景区域与背景区域;将该待处理图像并行地输入分割网络与抠图网络,得到分割网络输出的所述前景区域与所述背景区域的粗分割结果,以及得到所述抠图网络输出的所述目标对象的精细特征的抠图结果;将所述粗分割结果与所述抠图结果进行融合,得到所述前景区域与所述背景区域的精细分割结果。

其中,上述待处理图像中包含的目标对象可以是指具体不规则边缘区域的对象。例如,目标对象可以是人像、动物、毛绒玩具、或者衣服毛领等。

上述图像处理方法可以在服务器上被执行,也可以在云端被执行,还可以在终端设备上被执行。

需要说明的是,上述目标对象的精细特征可以是指目标对象的细节特征。比如,当目标对象是指人像时,精细特征可以是指人像的发丝;当目标对象是指动物时,精细特征可以是指动物的毛发。

可选地,上述待处理图像中包含的目标对象可以为人像,精细特征可以为人像的发丝。

可选地,上述待处理图像中包含的目标对象可以为动物,精细特征可以为动物的毛发。

可选地,上述待处理图像中包含的目标对象可以为毛绒玩具,精细特征可以为毛绒玩具的毛发。

在一种可能的实现方式中,该方法还包括:根据该待处理图像,得到针对该前景区域的边缘区域的注意力图;将该第一分割结果以及该抠图结果进行融合,包括:根据该注意力图,将该第一分割结果以及该抠图结果进行融合。

在本申请中,通过注意力图对粗分割结果与抠图结果进行融合,可以使得融合更加关注目标对象的精细特征即更加关注待处理图像中的细节信息,从而提升融合结果的精度即提高待处理图像的精细分割结果的准确性。

在一种可能的实现方式中,根据该注意力图,将该第一分割结果以及该抠图结果进行融合,包括:根据该注意力图,对该第一分割结果以及该抠图结果进行卷积处理。

在一种可能的实现方式中,根据该注意力图,将该第一分割结果以及该抠图结果进行融合,包括:根据该注意力图,对该第一分割结果以及该抠图结果中对应像素点的数值进行相乘。

在一种可能的实现方式中,根据该待处理图像,得到针对该前景区域的边缘区域的注意力图,包括:获取该分割网络对该待处理图像处理得到的特征信息;根据该待处理图像和该特征信息,得到该注意力图。

其中,特征信息可以是指分割网络得到待处理图像的特征图,或者,特征信息也可以是指分割网络的卷积层的参数。

在一种可能的实现方式中,根据该待处理图像和该特征信息,得到该注意力图,包括:根据该特征信息,得到注意力图提取网络;将该待处理图像输入至该注意力图提取网络,得到该注意力图。

在本申请中,可以获取分割网络的特征信息,通过共享训练后的分割网络的特征信息能够减小用于获取注意力图的注意力图提取网络的计算量。

在一种可能的实现方式中,该抠图网络包括编码模块和解码模块,该解码模块的神经网络层数大于该编码模块的神经网络层数。

在本申请中,抠图网络是为了学习更多图像中的细节信息,同时需要加强对图像中细节的位置信息的重视度。因此,本申请实施例在设计抠图网络时可以采用不对称的编码-解码结构,即解码模块的神经网络层数大于编码模块的神经网络层数,从而使得能够提高抠图网络处理待处理图像中精细特征的准确性。

在一种可能的实现方式中,该抠图网络是基于第一损失函数和第二损失函数训练得到的,其中,该第一损失函数用于区分该前景区域和该背景区域,该第二损失函数用于获取该目标对象的精细特征的抠图结果。

在本申请中,通过第一损失函数和第二损失函数训练抠图网络,可以避免当对抠图网络只输入待处理图像而不输入粗分割结果时抠图网络失去了语义信息,降低抠图网络的准确性,能够使得抠图网络大致能够学习到目标对象所在的前景区域与背景区域的区别。

可选地,上述第一损失函数可以是指整体损失函数,整体损失函数可以用于表示通过抠图网络得到的样本图像的预测抠图结果与样本图像的标注语义分割特征之间的损失值。

可选地,上述第二损失函数可以是指局部损失函数,局部损失函数可以用于表示预测抠图结果中边缘区域特征与样本图像的标注边缘区域特征之间的损失值,边缘区域可以是指样本图像中目标对象所在前景区域的边缘。

第二方面,提供了一种图像处理装置,包括:获取单元,用于获取待处理图像;处理单元,用于将该待处理图像并行地输入分割网络和抠图网络,获取该分割网络输出的前景区域与背景区域的第一分割结果,及获取该抠图网络输出的抠图结果;将该第一分割结果以及该抠图结果进行融合,得到该前景区域与该背景区域的第二分割结果。

需要说明的是,在本申请中第一分割结果可以是指粗分割结果,第二分割结果可以是指精细分割结果,其中,第二分割结果的精度大于第一分割结果。

在本申请中,可以将待处理图像并行地输入分割网络和抠图网络,即分割网络与抠图网络对于同一待处理图像可以并行处理,抠图网络可以不依赖于粗分割结果直接对待处理图像进行处理,通过分割网络与抠图网络之间并行对待处理图像进行处理,从而能够提高待处理图像的精细分割结果的准确性。

上述图像处理装置可以是服务器,还可以是终端设备。

应理解,在本申请的实施例中将待处理图像并行地输入分割网络和抠图网络是指分别将待处理图像输入至分割网络和抠图网络进行处理并不限定待处理图像输入至分割网络和抠图网络的先后顺序,其中,分割网络和抠图网络可以是分别对待处理图像进行处理的两个网络,即抠图网络对待处理图像进行处理时可以不依赖于分割网络的分割结果。

可选地,将待处理图像并行地输入分割网络和抠图网可以是将待处理图像同时输入至分割网络和抠图网络进行处理。

可选地,将待处理图像并行地输入分割网络和抠图网可以是指将待处理图像一先一后的分别输入至分割网络与抠图网络进行并行处理。

在本申请的实施例中,图像处理装置中可以包括:获取单元与处理单元,该获取单元可以用于获取待处理图像,该待处理图像中包含目标对象所在的前景区域与背景区域;该处理单元用于将该待处理图像并行地输入至分割网络与抠图网络,得到分割网络输出的所述前景区域与所述背景区域的粗分割结果,以及得到所述抠图网络输出的所述目标对象的精细特征的抠图结果;将所述粗分割结果与所述抠图结果进行融合,得到所述前景区域与所述背景区域的精细分割结果。

其中,上述待处理图像中包含的目标对象可以是指具体不规则边缘区域的对象。例如,目标对象可以是人像、动物、毛绒玩具、或者衣服毛领等。

应理解,上述目标对象的精细特征可以是指目标对象的细节特征。

可选地,上述待处理图像中包含的目标对象可以为人像,精细特征可以为人像的发丝。

可选地,上述待处理图像中包含的目标对象可以为动物,精细特征可以为动物的毛发。

可选地,上述待处理图像中包含的目标对象可以为毛绒玩具,精细特征可以为毛绒玩具的毛发。

在一种可能的实现方式中,该处理单元还用于:根据该待处理图像,得到针对该前景区域的边缘区域的注意力图;根据该注意力图,将该第一分割结果以及该抠图结果进行融合。

在本申请中,通过注意力图对粗分割结果与抠图结果进行融合,可以使得融合更加关注目标对象的精细特征即更加关注待处理图像中的细节信息,从而提升融合结果的精度即提高待处理图像的精细分割结果的准确性。

在一种可能的实现方式中,该处理单元具体用于:根据该注意力图,对该第一分割结果以及该抠图结果进行卷积处理。

在一种可能的实现方式中,该处理单元具体用于:根据该注意力图,对该第一分割结果以及该抠图结果中对应像素点的数值进行相乘。

在一种可能的实现方式中,该处理单元具体用于:获取该分割网络对该待处理图像处理得到的特征信息;根据该待处理图像和该特征信息,得到该注意力图。

其中,特征信息可以是指分割网络得到待处理图像的特征图,或者,特征信息也可以是指分割网络的卷积层的参数。

在一种可能的实现方式中,该处理单元具体用于:根据该特征信息,得到注意力图提取网络;将该待处理图像输入至该注意力图提取网络,得到该注意力图。

在本申请中,可以获取分割网络的特征信息,通过共享训练后的分割网络的特征信息能够减小用于获取注意力图的注意力图提取网络的计算量。

在一种可能的实现方式中,该抠图网络包括编码模块和解码模块,该解码模块的神经网络层数大于该编码模块的神经网络层数。

在本申请中,抠图网络是为了学习更多图像中的细节信息,同时需要加强对图像中细节的位置信息的重视度。因此,本申请实施例在设计抠图网络时可以采用不对称的编码-解码结构,即解码模块的神经网络层数大于编码模块的神经网络层数,从而使得能够提高抠图网络处理待处理图像中精细特征的准确性。

在一种可能的实现方式中,该抠图网络是基于第一损失函数和第二损失函数训练得到的,其中,该第一损失函数用于区分该前景区域和该背景区域,该第二损失函数用于获取目标对象的精细特征的抠图结果,该前景区域包含该目标对象。

在本申请中,通过第一损失函数和第二损失函数训练抠图网络,可以避免当对抠图网络只输入待处理图像而不输入粗分割结果时抠图网络失去了语义信息,降低抠图网络的准确性,能够使得抠图网络大致能够学习到目标对象所在的前景区域与背景区域的区别。

可选地,上述第一损失函数可以是指整体损失函数,整体损失函数可以用于表示通过抠图网络得到的样本图像的预测抠图结果与样本图像的标注语义分割特征之间的损失值。

可选地,上述第二损失函数可以是指局部损失函数,局部损失函数可以用于表示预测抠图结果中边缘区域特征与样本图像的标注边缘区域特征之间的损失值,边缘区域可以是指样本图像中目标对象所在前景区域的边缘。

第三方面,提供了一种图像处理装置,该装置包括:存储器,用于存储程序;处理器,用于执行所述存储器存储的程序,当所述存储器存储的程序被执行时,所述处理器用于执行上述第一方面以及第一方面的任意一种实现方式中的图像处理方法。

第四方面,提供一种计算机存储介质,该计算机存储介质存储有程序代码,该程序代码包括用于执行第一方面以及第一方面中的任意一种实现方式中的图像处理方法中的步骤的指令。

上述存储介质具体可以是非易失性存储介质。

第五方面,提供一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,执行上述第一方面以及第一方面的任意一种实现方式中的中的图像处理方法。

可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第一方面以及第一方面中的任意一种实现方式中的图像处理方法。

上述芯片具体可以是现场可编程门阵列FPGA或者专用集成电路ASIC。

附图说明

图1是本申请实施例提供的一种应用场景的示意图;

图2是本申请实施例提供的一种应用场景的示意图;

图3是本申请实施例提供的系统架构的结构示意图;

图4是本申请实施例提供的一种卷积神经网络结构示意图;

图5是本申请实施例提供的一种芯片硬件结构示意图;

图6是本申请实施例提供了一种系统架构的示意图;

图7是本申请实施例提供的图像处理方法的示意性流程图;

图8是本申请实施例提供的图像处理方法的示意性流程图;

图9是本申请实施例提供的分割网络处理图像的示意图;

图10是本申请实施例提供的抠图网络处理图像的示意图;

图11是本申请实施例提供的注意力图提取网络处理图像的示意图;

图12是本申请实施例提供的对分割结果和抠图结果进行融合的示意图;

图13是本申请实施例提供的图像处理方法的网络架构的示意图;

图14是本申请实施例提供的图像处理方法的效果示意图;

图15是本申请实施例的图像处理装置的示意性框图;

图16是本申请实施例的图像处理装置的示意性框图。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

应理解,本申请实施例中的图像可以为静态图像(或称为静态画面)或动态图像(或称为动态画面),例如,本申请中的图像可以为视频或动态图片,或者,本申请中的图像也可以为静态图片或照片。为了便于描述,本申请在下述实施例中将静态图像或动态图像统一称为图像。

本申请实施例的图像处理方法可以应用在图像的背景虚化、图像的背景替换、电商的广告制作以及直播、电影(动画)制作等别场景中,下面对其中图像的背景虚化以及就替换这两种场景进行详细的介绍。

图像的背景虚化

如图1所示,本申请实施例的图像处理方法可以应用于图像的背景虚化场景中。例如,首先可以是获取原始图像,例如,可以是通过具有摄像头获取的图像或者是电子设备本地存储的图像;接着对原始图像进行处理得到该原始图像的前景区域与背景区域的精细分割结果,其中,可以将原始图像并行地输入分割网络和抠图网络,获取该分割网络输出的前景区域与背景区域的第一分割结果,及获取该抠图网络输出的抠图结果;将第一分割结果以及抠图结果进行融合,得到原始图像的第二分割结果;最终,根据原始图像的第二分割结果可以使得包含目标对象的前景区域更加清晰,背景虚化,实现单反大光圈的效果。

在本申请中,第一分割结果可以是指粗分割结果,第二分割结果可以是指精细分割结果,其中,第二分割结果的精度大于第一分割结果。原始图像中可以包含目标对象所在的前景区域与背景区域。

例如,用户在智能终端开启拍摄功能,在拍摄的过程中,可以实时进行图像分割后,让被拍摄目标对象的前景区域清晰,背景区域虚化,实现单反大光圈的图像效果。

图像的背景替换

如图2所示,本申请实施例的图像处理方法可以应用于图像的背景虚化场景中。例如,首先可以是获取原始图像,例如,可以是通过具有摄像头获取的图像或者是电子设备本地存储的图像;接着对原始图像进行处理得到该原始图像的前景区域与背景区域的精细分割结果,其中,可以将原始图像并行地输入分割网络和抠图网络,获取该分割网络输出的前景区域与背景区域的第一割结果,及该抠图网络输出的抠图结果;将第一分割结果以及抠图结果进行融合,得到该前景区域与该背景区域的第二分割结果;最终,根据原始图像的第二分割结果可以保留原始图像中包含目标对象的前景区域,替换原始图像中的背景区域,从而实现图像的背景替换。

在本申请中,第一分割结果可以是指粗分割结果,第二分割结果可以是指精细分割结果,其中,第二分割结果的精度大于第一分割结果。原始图像中可以包含目标对象所在的前景区域与背景区域。

例如,用户在智能终端中开启视频通话功能,在拍摄的过程中,可以实时进行图像分割后,仅保留目标对象区域,实现视频通话背景区域的替换。

上述智能终端可以为移动的或固定的,例如,智能终端可以是具有图像处理功能的移动电话、平板个人电脑(tablet personal computer,TPC)、媒体播放器、智能电视、笔记本电脑(laptop computer,LC)、个人数字助理(personal digital assistant,PDA)、个人计算机(personal computer,PC)、照相机、摄像机、智能手表、可穿戴式设备(wearabledevice,WD)或者自动驾驶的车辆等,本申请实施例对此不作限定。

应理解,上文介绍的图像的背景虚化和图像的背景替换只是本申请实施例的图像处理方法所应用的两个具体场景,本申请实施例的图像处理方法在应用时并不限于上述两个场景,本申请实施例的图像处理方法能够应用到任何需要进行图像分割场景中。

应理解,上述为对应用场景的举例说明,并不对本申请的应用场景作任何限定。

由于本申请实施例涉及大量神经网络的应用,为了便于理解,下面先对本申请实施例可能涉及的神经网络的相关术语和概念进行介绍。

(1)神经网络

神经网络可以是由神经单元组成的,神经单元可以是指以x

其中,s=1、2、……n,n为大于1的自然数,W

(2)深度神经网络

深度神经网络(deep neural network,DNN),也称多层神经网络,可以理解为具有多层隐含层的神经网络。按照不同层的位置对DNN进行划分,DNN内部的神经网络可以分为三类:输入层,隐含层,输出层。一般来说第一层是输入层,最后一层是输出层,中间的层数都是隐含层。层与层之间是全连接的,也就是说,第i层的任意一个神经元一定与第i+1层的任意一个神经元相连。

虽然DNN看起来很复杂,但是就每一层的工作来说,其实并不复杂,简单来说就是如下线性关系表达式:

综上,第L-1层的第k个神经元到第L层的第j个神经元的系数定义为

需要注意的是,输入层是没有W参数的。在深度神经网络中,更多的隐含层让网络更能够刻画现实世界中的复杂情形。理论上而言,参数越多的模型复杂度越高,“容量”也就越大,也就意味着它能完成更复杂的学习任务。训练深度神经网络的也就是学习权重矩阵的过程,其最终目的是得到训练好的深度神经网络的所有层的权重矩阵(由很多层的向量W形成的权重矩阵)。

(3)卷积神经网络

卷积神经网络(convolutional neuron network,CNN)是一种带有卷积结构的深度神经网络。卷积神经网络包含了一个由卷积层和子采样层构成的特征抽取器,该特征抽取器可以看作是滤波器。卷积层是指卷积神经网络中对输入信号进行卷积处理的神经元层。在卷积神经网络的卷积层中,一个神经元可以只与部分邻层神经元连接。一个卷积层中,通常包含若干个特征平面,每个特征平面可以由一些矩形排列的神经单元组成。同一特征平面的神经单元共享权重,这里共享的权重就是卷积核。

共享权重可以理解为提取图像信息的方式与位置无关。卷积核可以以随机大小的矩阵的形式初始化,在卷积神经网络的训练过程中卷积核可以通过学习得到合理的权重。另外,共享权重带来的直接好处是减少卷积神经网络各层之间的连接,同时又降低了过拟合的风险。

(4)损失函数

在训练深度神经网络的过程中,因为希望深度神经网络的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量(当然,在第一次更新之前通常会有初始化的过程,即为深度神经网络中的各层预先配置参数),比如,如果网络的预测值高了,就调整权重向量让它预测低一些,不断地调整,直到深度神经网络能够预测出真正想要的目标值或与真正想要的目标值非常接近的值。

因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objective function),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么深度神经网络的训练就变成了尽可能缩小这个loss的过程。

(5)反向传播算法

神经网络可以采用误差反向传播(back propagation,BP)算法在训练过程中修正初始的神经网络模型中参数的大小,使得神经网络模型的重建误差损失越来越小。具体地,前向传递输入信号直至输出会产生误差损失,通过反向传播误差损失信息来更新初始的神经网络模型中参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,旨在得到最优的神经网络模型的参数,例如权重矩阵。

图3示出了本申请实施例提供的一种系统架构100。

在图3中,数据采集设备160用于采集训练数据。针对本申请实施例的图像处理方法来说,可以通过训练图像对抠图网络或者分割网络进行步训练,即数据采集设备160采集的训练数据可以是训练图像,训练图像可以包括标注精细人像分割数据(A)和普通人像分割数据(S)。

在采集到训练数据之后,数据采集设备160将这些训练数据存入数据库130,训练设备120基于数据库130中维护的训练数据训练得到目标模型/规则101。

下面对训练设备120基于训练数据得到目标模型/规则101进行描述,训练设备120对输入的原始图像进行处理,将输出的图像与原始图像进行对比,直到训练设备120输出的图像与原始图像的差值小于一定的阈值,从而完成目标模型/规则101的训练。

例如,在本申请提供的图像处理方法中,目标模型可以是指分割网络和/或抠图网络。可以通过普通人像分割数据(S)训练分割网络,将得到的语义分割的结果与真实的标签进行比较,计算差值;利用得到的差值反向更新网络参数,重复执行上述步骤,直到达到预先设置好的训练次数或者使得分割网络差值在预设范围内。

进一步地,待分割网络训练好后,可以固定住分割网络参数,通过标注精细人像分割数据(A)训练抠图网络、注意力模块以及融合模块中的一个或者多个。将得到的精细化分割结果与真实的标签进行比较,计算差值;利用得到的差值反向更新网络参数,重复执行上述步骤,直到达到预先设置好的训练次数或者使得分割网络差值在预设范围内。

上述目标模型/规则101能够用于实现本申请实施例的图像处理方法。本申请实施例中的目标模型/规则101具体可以为分割网络和/或抠图网络。

需要说明的是,在实际的应用中,所述数据库130中维护的训练数据不一定都来自于数据采集设备160的采集,也有可能是从其他设备接收得到的。另外需要说明的是,训练设备120也不一定完全基于数据库130维护的训练数据进行目标模型/规则101的训练,也有可能从云端或其他地方获取训练数据进行模型训练,上述描述不应该作为对本申请实施例的限定。

根据训练设备120训练得到的目标模型/规则101可以应用于不同的系统或设备中,如应用于图3所示的执行设备110,所述执行设备110可以是终端,如手机终端,平板电脑,笔记本电脑,增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR),车载终端等,还可以是服务器,或者,云端等。

在图3中,执行设备110配置输入/输出(input/output,I/O)接口112,用于与外部设备进行数据交互,用户可以通过客户设备140向I/O接口112输入数据,所述输入数据在本申请实施例中可以包括:客户设备输入的待处理图像。

预处理模块113和预处理模块114用于根据I/O接口112接收到的输入数据(如待处理图像)进行预处理,在本申请实施例中,也可以没有预处理模块113和预处理模块114(也可以只有其中的一个预处理模块),而直接采用计算模块111对输入数据进行处理。

在执行设备110对输入数据进行预处理,或者在执行设备110的计算模块111执行计算等相关的处理过程中,执行设备110可以调用数据存储系统150中的数据、代码等以用于相应的处理,也可以将相应处理得到的数据、指令等存入数据存储系统150中。

最后,I/O接口112将处理结果,如本申请实施例中得到的精细分割结果返回给客户设备140,从而提供给用户。

值得说明的是,训练设备120可以针对不同的目标或称不同的任务,基于不同的训练数据生成相应的目标模型/规则101,该相应的目标模型/规则101即可以用于实现上述目标或完成上述任务,从而为用户提供所需的结果。

在图3中所示情况下,用户可以手动给定输入数据,该手动给定可以通过I/O接口112提供的界面进行操作。另一种情况下,客户设备140可以自动地向I/O接口112发送输入数据,如果要求客户设备140自动发送输入数据需要获得用户的授权,则用户可以在客户设备140中设置相应权限。用户可以在客户设备140查看执行设备110输出的结果,具体的呈现形式可以是显示、声音、动作等具体方式。客户设备140也可以作为数据采集端,采集如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果作为新的样本数据,并存入数据库130。当然,也可以不经过客户设备140进行采集,而是由I/O接口112直接将如图所示输入I/O接口112的输入数据及输出I/O接口112的输出结果,作为新的样本数据存入数据库130。

值得注意的是,图3仅是本申请实施例提供的一种系统架构的示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制,例如,在图3中,数据存储系统150相对执行设备110是外部存储器,在其它情况下,也可以将数据存储系统150置于执行设备110中。

如图3所示,根据训练设备120训练得到目标模型/规则101,该目标模型/规则101在本申请实施例中可以是本申请中的分割网络或者抠图网络,具体的,本申请实施例提供的分割网络或者抠图网络可以是卷积神经网络(convolutional neuron network,CNN),或者可以是深度卷积神经网络(deep convolutional neural networks,DCNN)等。

下面结合图4重点对卷积神经网络的结构进行详细的介绍。卷积神经网络是一种非常常见的神经网络,如上文的基础概念介绍所述,卷积神经网络是一种带有卷积结构的深度神经网络,是一种深度学习(deep learning)架构。深度学习架构是指通过机器学习的算法,在不同的抽象层级上进行多个层次的学习。作为一种深度学习架构,CNN是一种前馈(feed-forward)人工神经网络,该前馈人工神经网络中的各个神经元可以对输入其中的图像作出响应。

本申请实施例的图像处理方法中,分割网络和抠图网络采用的神经网络的结构可以如图4所示。在图4中,卷积神经网络200可以包括输入层210,卷积层/池化层220(其中,池化层为可选的),以及神经网络层230。其中,输入层210可以获取待处理图像,并将获取到的待处理图像交由卷积层/池化层220以及后面的神经网络层230进行处理,可以得到图像的处理结果。下面对图4中的CNN 200中内部的层结构进行详细的介绍。

卷积层/池化层220:

如图4所示卷积层/池化层220可以包括如示例221-226层,举例来说:在一种实现中,221层为卷积层,222层为池化层,223层为卷积层,224层为池化层,225为卷积层,226为池化层。

在另一种实现方式中,221、222为卷积层,223为池化层,224、225为卷积层,226为池化层。即卷积层的输出可以作为随后的池化层的输入,也可以作为另一个卷积层的输入以继续进行卷积操作。

下面将以卷积层221为例,介绍一层卷积层的内部工作原理。

卷积层221可以包括很多个卷积算子,卷积算子也称为核,其在图像处理中的作用相当于一个从输入图像矩阵中提取特定信息的过滤器,卷积算子本质上可以是一个权重矩阵,这个权重矩阵通常被预先定义,在对图像进行卷积操作的过程中,权重矩阵通常在输入图像上沿着水平方向一个像素接着一个像素(或两个像素接着两个像素等,这取决于步长stride的取值)的进行处理,从而完成从图像中提取特定特征的工作。该权重矩阵的大小应该与图像的大小相关,需要注意的是,权重矩阵的纵深维度(depth dimension)和输入图像的纵深维度是相同的,在进行卷积运算的过程中,权重矩阵会延伸到输入图像的整个深度。因此,和一个单一的权重矩阵进行卷积会产生一个单一纵深维度的卷积化输出,但是大多数情况下不使用单一权重矩阵,而是应用多个尺寸(行×列)相同的权重矩阵,即多个同型矩阵。每个权重矩阵的输出被堆叠起来形成卷积图像的纵深维度,这里的维度可以理解为由上面所述的“多个”来决定。

不同的权重矩阵可以用来提取图像中不同的特征,例如,一个权重矩阵用来提取图像边缘信息,另一个权重矩阵用来提取图像的特定颜色,又一个权重矩阵用来对图像中不需要的噪点进行模糊化等。该多个权重矩阵尺寸(行×列)相同,经过该多个尺寸相同的权重矩阵提取后的卷积特征图的尺寸也相同,再将提取到的多个尺寸相同的卷积特征图合并形成卷积运算的输出。

这些权重矩阵中的权重值在实际应用中需要经过大量的训练得到,通过训练得到的权重值形成的各个权重矩阵可以用来从输入图像中提取信息,从而使得卷积神经网络200进行正确的预测。

当卷积神经网络200有多个卷积层的时候,初始的卷积层(例如221)往往提取较多的一般特征,该一般特征也可以称之为低级别的特征;随着卷积神经网络200深度的加深,越往后的卷积层(例如226)提取到的特征越来越复杂,比如,高级别的语义之类的特征,语义越高的特征越适用于待解决的问题。

池化层:

由于常常需要减少训练参数的数量,因此卷积层之后常常需要周期性的引入池化层,在如图4中卷积层/池化层220所示例的221-226各层,可以是一层卷积层后面跟一层池化层,也可以是多层卷积层后面接一层或多层池化层。在图像处理过程中,池化层的唯一目的就是减少图像的空间大小。池化层可以包括平均池化算子和/或最大池化算子,以用于对输入图像进行采样得到较小尺寸的图像。平均池化算子可以在特定范围内对图像中的像素值进行计算产生平均值作为平均池化的结果。最大池化算子可以在特定范围内取该范围内值最大的像素作为最大池化的结果。另外,就像卷积层中用权重矩阵的大小应该与图像尺寸相关一样,池化层中的运算符也应该与图像的大小相关。通过池化层处理后输出的图像尺寸可以小于输入池化层的图像的尺寸,池化层输出的图像中每个像素点表示输入池化层的图像的对应子区域的平均值或最大值。

神经网络层230:

在经过卷积层/池化层220的处理后,卷积神经网络200还不足以输出所需要的输出信息。因为如前所述,卷积层/池化层220只会提取特征,并减少输入图像带来的参数。然而为了生成最终的输出信息(所需要的类信息或其他相关信息),卷积神经网络200需要利用神经网络层230来生成一个或者一组所需要的类的数量的输出。因此,在神经网络层230中可以包括多层隐含层(如图4所示的231、232至23n)以及输出层240,该多层隐含层中所包含的参数可以根据具体的任务类型的相关训练数据进行预先训练得到,例如该任务类型可以包括图像识别,图像分类,图像检测以及图像超分辨率重建等等。

在神经网络层230中的多层隐含层之后,也就是整个卷积神经网络200的最后层为输出层240,该输出层240具有类似分类交叉熵的损失函数,具体用于计算预测误差,一旦整个卷积神经网络200的前向传播(如图4由210至240方向的传播为前向传播)完成,反向传播(如图4由240至210方向的传播为反向传播)就会开始更新前面提到的各层的权重值以及偏差,以减少卷积神经网络200的损失,及卷积神经网络200通过输出层输出的结果和理想结果之间的误差。

可选地,在一些实现方式中,由于上述卷积层中的卷积操作,池化层中的池化操作以及神经网络层中的运算可以看作是线性计算,因此,为了提高CNN模型的描述能力,可以在上述CNN网络中引入激活函数(activation function),以在CNN中增加非线性运算,因此,基于激活函数的运算又可以称为“非线性运算”。

例如,若在层221与层222中进行上述线性运算,则可以在层221与层222之间插入激活函数,即层221的输出作为激活函数的输入,该激活函数的输出作为层222的输入。应理解,上述激活函数还可以设置在隐含层231以及隐含层232之间,本申请实施例对激活函数的布置方式不做具体限定。

需要说明的是,图4所示的卷积神经网络仅作为一种本申请实施例的抠图网络和分割网络采用的卷积神经网络的示例,在具体的应用中,本申请实施例的图像处理方法所采用的卷积神经网络还可以以其他网络模型的形式存在。

图5为本申请实施例提供的一种芯片的硬件结构,该芯片包括神经网络处理器300(neural-network process units,NPU)。该芯片可以被设置在如图3所示的执行设备110中,用以完成计算模块111的计算工作。该芯片也可以被设置在如图3所示的训练设备120中,用以完成训练设备120的训练工作并输出目标模型/规则101。如图4所示的卷积神经网络中各层的算法可以在如图5所示的芯片中得以实现。

神经网络处理器NPU 300作为协处理器挂载到主中央处理器(centralprocessing unit,CPU)上,由主CPU分配任务。NPU 300的核心部分为运算电路303,控制器304控制运算电路303提取存储器(权重存储器或输入存储器)中的数据并进行运算。

在一些实现中,运算电路303内部包括多个处理单元(process engine,PE)。在一些实现中,运算电路303是二维脉动阵列。运算电路303还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路303是通用的矩阵处理器。

举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路303从权重存储器302中取矩阵B相应的数据,并缓存在运算电路303中每一个PE上。运算电路303从输入存储器301中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器308(accumulator)中。

向量计算单元307可以对运算电路303的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。例如,向量计算单元307可以用于神经网络中非卷积/非FC层的网络计算,如池化(pooling),批归一化(batch normalization),局部响应归一化(local response normalization)等。

在一些实现种,向量计算单元能307将经处理的输出的向量存储到统一存储器306。例如,向量计算单元307可以将非线性函数应用到运算电路303的输出,例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元307生成归一化的值、合并值,或二者均有。在一些实现中,处理过的输出的向量能够用作到运算电路303的激活输入,例如用于在神经网络中的后续层中的使用。

统一存储器306用于存放输入数据以及输出数据。

权重数据直接通过存储单元访问控制器305(direct memory accesscontroller,DMAC)将外部存储器中的输入数据存入输入存储器301和/或统一存储器306、将外部存储器中的权重数据存入权重存储器302,以及将统一存储器306中的数据存入外部存储器。

总线接口单元310(bus interface unit,BIU),用于通过总线实现主CPU、DMAC和取指存储器309之间进行交互。

与控制器304连接的取指存储器309(instruction fetch buffer),用于存储控制器304使用的指令。

控制器304,用于调用取指存储器309中缓存的指令,实现控制该运算加速器的工作过程。

一般地,统一存储器306,输入存储器301,权重存储器302以及取指存储器309均为片上(On-Chip)存储器,外部存储器为该NPU外部的存储器,该外部存储器可以为双倍数据率同步动态随机存储器(double data rate synchronous dynamic random accessmemory,DDR SDRAM)、高带宽存储器(high bandwidth memory,HBM)或其他可读可写的存储器。

其中,图4所示的卷积神经网络中各层的运算可以由运算电路303或向量计算单元307执行。

上文中介绍的图3中的执行设备110能够执行本申请实施例的图像处理方法或者图像处理方法的各个步骤,图4所示的CNN模型和图5所示的芯片也可以用于执行本申请实施例的图像处理方法或者图像处理方法的各个步骤。

下面结合图6至图14对本申请实施例的图像处理方法进行详细的介绍。

如图6所示,本申请实施例提供了一种系统架构400。该系统架构包括本地设备420、本地设备430以及执行设备410和数据存储系统450,其中,本地设备420和本地设备430通过通信网络与执行设备410连接。

执行设备410可以由一个或多个服务器实现。

可选地,执行设备410可以与其它计算设备配合使用,例如:数据存储器、路由器、负载均衡器等设备。执行设备410可以布置在一个物理站点上,或者分布在多个物理站点上。执行设备410可以使用数据存储系统450中的数据,或者调用数据存储系统450中的程序代码来实现本申请实施例的图像处理方法。

需要说明的是,上述执行设备410也可以称为云端设备,此时执行设备410可以部署在云端。

具体地,执行设备410可以执行以下过程:获取待处理图像;将所述待处理图像并行地输入分割网络和抠图网络,获取所述分割网络输出的前景区域与背景区域的第一分割结果,及获取所述抠图网络输出的抠图结果;将所述第一分割结果以及所述抠图结果进行融合,得到所述前景区域与所述背景区域的第二分割结果。

在一种可能的实现方式中,上述执行设备410图像处理方法可以是在云端执行的离线方法。

在本申请的实施例中,待处理图像中可以包含目标对象所在的前景区域与背景区域;将待处理图像并行地输入至分割网络与抠图网络,可以获取分割网络输出的所述前景区域与所述背景区域的粗分割结果,以及获取所述抠图网络输出的所述目标对象的精细特征的抠图结果。

用户可以操作各自的用户设备(例如,本地设备420和本地设备430)与执行设备410进行交互。每个本地设备可以表示任何计算设备,例如,个人计算机、计算机工作站、智能手机、平板电脑、智能摄像头、智能汽车或其他类型蜂窝电话、媒体消费设备、可穿戴设备、机顶盒、游戏机等。

每个用户的本地设备可以通过任何通信机制/通信标准的通信网络与执行设备410进行交互,通信网络可以是广域网、局域网、点对点连接等方式,或它们的任意组合。

在一种实现方式中,本地设备420、本地设备430可以从执行设备410获取到分割网络和抠图网络的相关参数,将分割网络和抠图网络部署在本地设备420、本地设备430上,利用该分割网络和抠图网络进行图像处理等等。

在另一种实现中,执行设备410上可以直接部署分割网络和抠图网络,执行设备410通过从本地设备420和本地设备430获取待处理图像,并根据分割网络和抠图网络对待处理图像进行图像处理。

下面结合图7对本申请实施例的图像处理方法进行详细的介绍。图7所示的图像处理方法可以由图像处理装置来执行,该图像处理装置可以是图6所示的执行设备或者本地设备。图7所示的方法500包括步骤510至530,下面分别对这些步骤进行详细的描述。

步骤510、获取待处理图像。

在本申请的实施例中,上述待处理图像可以是电子设备通过摄像头拍摄到的图像,或者,上述待处理图像还可以是从电子设备内部获得的图像(例如,电子设备的相册中存储的图像,或者,电子设备从云端获取的图片)。

步骤520、将所述待处理图像并行地输入分割网络和抠图网络,获取所述分割网络输出的前景区域与背景区域的第一分割结果,及获取所述抠图网络输出的抠图结果。

需要说明的是,在本申请的实施例中第一分割结果可以是指粗分割结果,第二分割结果可以是指精细分割结果,其中,第二分割结果的精度大于第一分割结果。

在本申请的实施例中,待处理图像中可以包含目标对象所在的前景区域与背景区域;将待处理图像并行地输入至分割网络与抠图网络,可以获取分割网络输出的所述前景区域与所述背景区域的粗分割结果,以及获取所述抠图网络输出的所述目标对象的精细特征的抠图结果。

应理解,在本申请的实施例中目标对象可以具体不规则边缘区域的图像。比如,目标对象可以是人像、动物、毛绒玩具、或者衣服毛领等。

可选地,待处理图像可以是RGB图像。

应理解,目标对象的精细特征可以是指目标对象的细节特征。

示例性地,上述待处理图像中包含的目标对象可以为人像,精细特征可以为人像的发丝。

示例性地,上述待处理图像中包含的目标对象可以为动物,精细特征可以为动物的毛发。

示例性地,上述待处理图像中包含的目标对象可以为毛绒玩具,精细特征可以为毛绒玩具的毛发。

需要说明的是,在本申请的实施例中将待处理图像并行地输入分割网络和抠图网络是指分别将待处理图像输入至分割网络和抠图网络并行进行处理,并不限定待处理图像输入至分割网络和抠图网络的先后顺序,其中,可以同时分别向分割网络与抠图网络输入待处理图像进行处理,即在本申请的实施例中,抠图网络对待处理图像进行处理时可以不依赖于分割网络的分割结果,能够直接对待处理图像进行处理。

例如,将待处理图像并行地输入分割网络和抠图网可以是将待处理图像同时输入至分割网络和抠图网络。

例如,将待处理图像并行地输入分割网络和抠图网可以是指将待处理图像先输入至分割网络,再将待处理图像输入至抠图网络。

例如,将待处理图像并行地输入分割网络和抠图网络可以是指将待处理图像先输入至抠图网络,再将待处理图像输入至分割网络。

在本申请的实施例中,分割网络可以大致区分出待处理图像中的前景区域与背景区域,但是无法学习到待处理图像中更多细节信息的神经网络。

示例性地,在本申请的实施例中,分割网络可以采用输出是三分类蒙版的分割网络,其中,三分类蒙版可以是指将待处理图像划分为目标对象所在的前景区域、背景区域以及不确定区域。

示例性地,在本申请的实施例中,分割网络可以采用输出是两分类蒙版的分割网络,其中,两分类蒙版是指将待处理图像划分为目标对象所在的前景区域以及背景区域。

需要说明的是,本申请实施例中的分割网络用于得到待处理图像的前景区域与背景区域的初步分割结果,至于分割网络的具体结构本申请不作任何限定。

如图9所示,分割网络可以采用常规的编码-解码结构,通过分割网络对待处理图像进行处理可以得到待处理图像的粗分割结果,又可以称为待处理图像的分割特征。

应理解,在本申请的实施例中,通过分割网络对待处理图像进行处理可以得到前景区域与背景区域的粗分割结果,粗分割结果可以是指具有大致前景区域与背景区域但是对于目标对象的精细特征精度较低的分割结果。

例如,当目标对象为人像时,精细特征可以是指发丝区域,粗分割结果可以大致区分人像所在的前景区域以及背景区域,但是对于人像的精细特征比如发丝区域粗分割结果的精度较低。

在本申请的实施例中,抠图网络可以是指精细化分割网络,即精度较高可以得到待处理图像中的更多细节信息的网络。

例如,若待处理处理图像中包括的目标对象为动物,则抠图网络可以将动物的毛发等进行精细化抠取。

步骤530、将所述第一分割结果以及所述抠图结果进行融合,得到所述前景区域与所述背景区域的第二分割结果。

在本申请的实施例中,第二分割结果可以是指精细分割结果可以是指精细分割蒙版(Alpha)。例如,待处理图像中包含的目标对象为人像时,精细分割结果可以是指人像像素级精细化分割结果,其取值范围为0至1。

在一种可能的实现方式中,为了使得粗分割结果和抠图结果在进行融合时,更加关注目标对象的精细特征即更加关注待处理图像中的细节信息,则可以通过注意力图对粗分割结果与抠图结果进行融合,其中,注意力图可以是指待处理图像中前景区域的边缘区域的注意力图。

例如,在本申请的实施例中可以根据待处理图像,得到针对所述前景区域的边缘区域的注意力图;根据所述注意力图,将粗分割结果以及抠图结果进行融合。

在一种可能的实现方式中,上述融合可以是根据注意力图对第一分割结果以及抠图结果进行卷积处理。

例如,可以通过融合网络对注意力图、粗分割结果以及抠图结果进行卷积处理得到待处理图像中前景区域与背景区域的精细分割结果。

例如,图12所示为根据注意力图,将粗分割结果以及抠图结果进行融合的示意图。其中,融合模块可以是神经网络,通过融合模块可以将粗分割结果(即分割特征)、抠图结果(即抠图特征)通过注意力图进行融合,获得最终的精细化分割蒙版(Alpha)。

在另一种可能的实现方式中,上述融合可以是指根据该注意力图,对第一分割结果以及抠图结果中对应区域的像素点的数值进行相乘。

可选地,可以根据待处理图像,得到针对待处理图像的前景区域的边缘区域的注意力图可以是通过人工标注的样本图像的前景区域的边缘区域训练神经网络,得到用于获取注意力图的注意力图提取网络。

如图11所示,为根据待处理图像得到的注意力图的示意图,其中,注意力模块可以是用于提取注意力图的神经网络。

进一步地,为了减少用于获取注意力图的注意力图提取网络计算量,即设计网络结构简单的注意力图提取网络则可以获取完成训练的分割网络对待处理图像处理得到的特征信息。

可选地,根据所述待处理图像,得到针对所述前景区域的边缘区域的注意力图,可以是指获取分割网络对待处理图像处理得到的特征信息;根据待处理图像和特征信息,得到注意力图。

其中,特征信息可以是指分割网络得到待处理图像的特征图,或者,特征信息也可以是指分割网络的卷积层的参数,通过共享完成训练的分割网络的特征可以减少注意力图提取网络的计算量。

可选地,可以根据获取的特征信息得到注意力图提取网络;将待处理图像输入至所述注意力图网络得到所述注意力图。

在传统框架中,抠图网络是基于粗分割结果对待处理图像进行抠图,粗分割结果可以为抠图网络提供大致的语义信息。当对抠图网络只输入待处理图像而不输入粗分割结果时抠图网络失去了语义信息,降低抠图的准确性。因此,在本申请的实施例中可以通过第一损失函数和第二损失函数训练抠图网络的参数,使得抠图网络大致能够学习到目标对象所在的前景区域与背景区域的区别。

可选地,抠图网络可以是基于第一损失函数和第二损失函数训练得到的,其中,第一损失函数可以用于区分所述前景区域和所述背景区域,第二损失函数可以用于获取待处理图像的目标对象的精细特征的抠图结果。

此外,图像处理中通常可以采用对称的编码-解码结构,为了实现图像处理中的平衡性,即卷积处理和降维操作与卷积处理和上采样操作之间的平衡性。编码过程大致可以是卷积处理和降维处理的过程,编码是为了使得网络能够学习到图像特征中的信息,通常情况下编码中的浅层卷积可以学习到图像中的细节信息,编码中的深层卷积可以学习到图像中的整体信息;解码过程可以看作是卷积处理和上采样处理的过程,用于恢复图像的尺寸大小和像素,解码网络设计的更深一些的好处在于可以逐像素点慢慢恢复图像,保证图像中每个像素点的位置信息。

在本申请的实施例中,抠图网络是为了学习更多图像中的细节信息,同时可以加强对图像中细节的位置信息的重视度。因此,本申请实施例在设计抠图网络时可以不采用对称的编码-解码结构。为了使得抠图网络学习到更多图像中的细节特征,则在设计编码模块时可以不采用比较深的神经网络层数;为了更加关注图像中细节特征的位置信息,则在设计解码模块时可以采用比较深的神经网络层数。

应理解,当解码模块中神经网络层数较少时,可能在恢复部分像素点后直接采用上采样恢复图像尺寸,此时会存在部分像素点的位置不准确。

示例性地,如图10所示,在本申请的实施例中抠图网络可以包括编码模块和解码模块,解码模块的神经网络层数大于编码模块的神经网络层数。

在本申请中,将待处理图像并行地输入分割网络和抠图网络,可以包括但不限于以下两种情况。

情况一:

在一个实施例中,上述分割网络和上述抠图网络可以采用现有技术中的分割网络与抠图网络。

由于采用现有的抠图网络时并未对抠图网络提供图像的分割语义信息,直接对待处理的RGB图像进行抠图处理得到的目标对象的精细特征的抠图结果可能存在误差,此时,可以将粗分割结果与抠图结果输入至用于融合处理的神经网络中,该用于融合处理的神经网络的参数可以是通过第一损失函数和第二损失函数训练得到的,其中,第一损失函数可以用于区分待处理图像的前景区域和背景区域,第二损失函数可以用于获取目标对象的精细特征的抠图结果。

示例性地,第一损失函数可以是整体损失函数,整体损失函数可以用于表示通过抠图网络得到的样本图像的预测抠图结果与样本图像的标注语义分割特征之间的损失值;第二损失函数可以是局部损失函数,局部损失函数可以用于表示所述预测抠图结果中边缘区域特征与所述样本图像的标注边缘区域特征之间的损失值,所述边缘区域是指所述样本图像中目标对象所在前景区域的边缘。

例如,待处理图像是包含人像所在的前景区域与背景区域,整体损失函数可以用于表示得到的预测人像抠图结果的前景区域与背景区域的整体损失值,局部损失函数可以用于表示人像的发丝区域的损失值。

进一步,为了使得粗分割结果和抠图结果在进行融合时,更加关注目标对象的精细特征即更加关注待处理图像中的细节信息,则在对粗分割结果与抠图结果进行融合时可以通过注意力图进行融合,其中,注意力图可以是指待处理图像中前景区域的边缘区域的注意力图。

示例性地,可以根据待处理图像,得到针对所述前景区域的边缘区域的注意力图;根据所述注意力图,将粗分割结果以及抠图结果进行融合。

如图11所示,为根据待处理图像得到的注意力图的示意图,其中,注意力模块可以是用于提取注意力图的神经网络。

在一种可能的实现方式中,获取上述注意力图时可以通过人工标注的样本图像的前景区域的边缘区域训练神经网络,得到用于获取注意力图的注意力图提取网络。

在另一种可能的实现方式中,为了减少用于获取注意力图的注意力图提取网络计算量,即设计网络结构简单的注意力图提取网络则可以共享完成训练的分割网络对待处理图像处理得到的特征信息。

其中,特征信息可以是指分割网络得到待处理图像的特征图,或者,特征信息也可以是指分割网络的卷积层的参数,通过共享完成训练的分割网络的特征信息可以减少注意力图提取网络的计算量。

可选地,可以根据获取的特征信息得到注意力图提取网络;将待处理图像输入至所述注意力图网络得到所述注意力图。

情况二:

在一个实施例中,上述分割网络可以采用现有技术中的分割网络,抠图网络可以采用本申请实施例中提出的抠图网络。

例如,抠图网络的参数可以基于第一损失函数和第二损失函数训练得到的,其中,第一损失函数可以用于区分所述前景区域和背景区域,第二损失函数可以用于获取目标对象的精细特征的抠图结果。

需要说明的是,在传统框架中抠图网络基于粗分割结果对待处理图像进行抠图,粗分割结果可以为抠图网络提供大致的语义信息。当对抠图网络只输入待处理图像而不输入粗分割结果时抠图网络失去了语义信息,因此可以通过第一损失函数弥补抠图网络将丢失的语义信息。

例如,在对抠图网络进行训练时可以输入样本图像以及该样本图像对应的人工标注的精细化分割结果,对于人工标注的精细化分割结果中像素点取值为1或者趋近于1的可以表示是目标对象所在的前景区域,像素点取值为0或者趋近于0的可以表示背景区域;以及通过整体损失函数训练抠图网络,使得抠图网络直接基于RGB图像进行抠图处理时可以大致区分前景区域与背景区域。

可选地,抠图网络中可以包括编码模块和解码模块,解码模块的神经网络层数大于所述编码模块的神经网络层数。

通常采用的编码-解码结构是对称的,是为实现图像处理中的平衡,即卷积处理和降维操作与卷积处理和上采样操作之间的平衡。编码过程大致可以是指为卷积处理和降维处理的过程,编码是为了使得网络能够学习到图像特征中的信息,通常情况下编码中的浅层卷积可以学习到图像中的细节信息,编码中的深层卷积可以学习到图像中的整体信息;解码过程可以看作是卷积处理和上采样处理的过程,用于恢复图像的尺寸大小和像素,解码网络设计的更深一些的好处在于可以逐像素点慢慢恢复图像,保证图像中每个像素点的位置信息。

例如,当解码网络设计的比较浅时即层数较少时,可能在恢复部分像素点后直接采用上采样恢复图像尺寸,此时会存在部分像素点的位置不准确。

在本申请的实施例中,抠图网络是为了学习更多图像中的细节信息,因此在设计编码网络时可以不用设计比较深的卷积。例如,如图10所示,在本申请的实施例中可以改变编码-解码结构的对称性。当在训练抠图网络时增加图像的整体损失函数之后,仍然希望抠图网络还能关注到细节信息,即低层的特征,因此抠图网络不需要太深的编码阶段,而应当加强对发丝等细节的位置信息的重视度,所以抠图网络采用相对于编码阶段来说更深的解码阶段。

示例性地,本申请实施例中上述抠图网络的参数可以是通过第一损失函数与第二损失函数训练得到的,上述抠图网络得到的目标对象的精细特征的抠图结果的精度高于采用现有技术中的抠图网络,因此,在对粗分割结果和抠图结果进行融合时也可以是通过粗分割结果与抠图结果的对应像素点位置的数值相乘得到待处理图像的前景区域与背景区域的精细分割结果。

进一步,为了使得粗分割结果和抠图结果在进行融合时,更加关注目标对象的精细特征即更加关注待处理图像中的细节信息,则在对粗分割结果与抠图结果进行融合时可以通过注意力图进行融合,其中,注意力图可以是指待处理图像中前景区域的边缘区域的注意力图。

示例性地,可以根据待处理图像,得到针对所述前景区域的边缘区域的注意力图;根据所述注意力图,将粗分割结果以及抠图结果进行融合。

在一种可能的实现方式中,上述融合可以是根据注意力图对第一分割结果以及抠图结果进行卷积处理。

例如,可以通过融合网络对注意力图、粗分割结果以及抠图结果进行卷积处理得到待处理图像中前景区域与背景区域的精细分割结果。

例如,图12所示为根据注意力图,将粗分割结果以及抠图结果进行融合的示意图。其中,融合模块可以是神经网络,通过融合模块可以将粗分割结果(即分割特征)、抠图结果(即抠图特征)通过注意力图进行融合,获得最终的精细化分割蒙版(Alpha)。

例如,可以通过图像的整体损失函数与局部损失函数训练用于融合处理的神经网络的参数,其中,上述第一损失函数可以是整体损失函数,整体损失函数可以用于表示通过抠图网络得到的样本图像的预测抠图结果与样本图像的标注语义分割特征之间的损失值;第二损失函数可以是局部损失函数,局部损失函数可以用于表示所述预测抠图结果中边缘区域特征与所述样本图像的标注边缘区域特征之间的损失值,所述边缘区域是指所述样本图像中目标对象所在前景区域的边缘。

在另一种可能的实现方式中,上述融合可以是指根据该注意力图,对第一分割结果以及抠图结果中对应区域的像素点的数值进行相乘。

可选地,获取上述注意力图时可以通过人工标注的样本图像的前景区域的边缘区域训练神经网络,得到用于获取注意力图的注意力图提取网络。

在另一种可能的实现方式中,为了减少用于获取注意力图的注意力图提取网络计算量,即设计网络结构简单的注意力图提取网络则可以获取完成训练的分割网络对待处理图像处理得到的特征信息,根据所述待处理图像和所述特征信息,得到所述注意力图。

其中,特征信息可以是指分割网络得到待处理图像的特征图,或者,特征信息也可以是指分割网络的卷积层的参数,通过共享完成训练的分割网络的特征信息可以减少注意力图提取网络的计算量。

例如,所述根据所述待处理图像和所述特征信息,得到所述注意力图,可以包括根据所述特征信息,得到注意力图提取网络;将所述待处理图像输入至所述注意力图提取网络,得到所述注意力图。

在本申请的实施例中,用于图像处理的网络结构可以如图13所示,该网络中可以由分割网络、抠图网络、注意力模块(即可以是注意力图提取网络)和融合模块组成。其中,分割网络可以采用常规的编码-解码结构,用于获得分割特征;注意力模块(即注意力图提取网络)可以利用分割网络输出的分割特征信息和待处理的RGB图像信息,获得发丝等边缘区域的注意力图;抠图网络可以包括抠图编码-解码模块和抠图优化模块,获取发丝等抠图特征;融合模块可以用于将分割特征、抠图特征通过注意力图进行融合,获得最终的精细化分割蒙版(Alpha)。

通过本申请实施例的图像处理方法,针对计算机视觉领域的精细分割任务,提出可并行的精细分割网络构架。抠图网络可以不依赖于分割结果,能够直接根据待处理图像获得准确的精细特征(例如,人像的发丝区域)的抠图结果。在保持精度的同时,整个精细分割网络训练可以仅部分依赖于人工标注的精细化分割蒙版,比如,对于并行的网络架构中可以通过人工标注的精细化分割蒙版训练抠图网络,通过普通分割数据训练分割网络,从而能够大幅减少人工标注的精细分割蒙版的数据量;此外,对于抠图网络作优化后,并行的精细分割网络构架可大幅降低网络运行时间,并且提高精细人像分割结果的鲁棒性。

应注意,图7的例子仅仅是为了帮助本领域技术人员理解本申请实施例,而非要将本申请实施例限于所例示的具体数值或具体场景。本领域技术人员根据所给出的图7的例子,显然可以进行各种等价的修改或变化,这样的修改或变化也落入本申请实施例的范围内。

图8是本申请实施例提供的图像处理方法的示意性流程图。其中,方法600包括步骤601至步骤605,下面分别对这些步骤进行详细的描述。

步骤601、获取待处理图像。

示例性地,待处理图像中可以包含目标对象的前景区域和背景区域。比如,待处理图像可以是RGB图像。

示例性地,待处理图像可以是上述电子设备通过摄像头拍摄到的图像,或者,该待处理图像还可以是从电子设备内部获得的图像(例如,电子设备的相册中存储的图像,或者,电子设备从云端获取的图片)。

需要说明的是,上述待处理图像可以是具有图像分割处理需求的图像,本申请并不对待处理图像的来源作任何限定。

应理解,在本申请的实施例中目标对象可以具体不规则边缘区域的图像。比如,目标对象可以是人像、动物、毛绒玩具、或者衣服毛领等。

步骤602、将待处理图像输入至分割网络处理,得到前景区域与背景区域的第一分割结果。

其中,上述第一分割结果可以是前景区域与背景区域的粗分割结果。

可选地,上述分割网络可以是指得到三分类蒙版,即将待处理图像划分为前景区域、背景区域以及不确定区域的分割网络。

可选地,上述分割网络也可以是对待处理图像进行初步分割,得到前景区域与背景区域的初步分割结果的分割网络。

例如,如图9所示,分割网络可以采用常规的编码-解码结构,通过分割网络对待处理图像进行处理可以得到待处理图像的粗分割结果,又可以称为待处理图像的分割特征。

步骤603、将待处理图像输入至抠图网络处理,得到抠图结果。

其中,待处理图像通过抠图网络处理可以得到目标对象的精细特征的抠图结果。

需要说明的是,上述步骤602与步骤603是将待处理图像先输入分割网络,再输入抠图网络进行举例说明。也可以是将待处理图像同时输入至分割网络与抠图网络,或者,还可以是先将待处理图像输入至抠图网络,再将待处理图像输入至分割网络。

在本申请的实施例中,分割网络与抠图网络可以并行对待处理图像进行处理,即可以将所述待处理图像并行地输入分割网络和抠图网络,并不对输入至分割网络与抠图网络中的先后顺序作任何限定。

示例性地,上述待处理图像中包含的目标对象可以为人像,精细特征可以为人像的发丝。

示例性地,上述待处理图像中包含的目标对象可以为动物,精细特征可以为动物的毛发。

示例性地,上述待处理图像中包含的目标对象可以为毛绒玩具,精细特征可以为毛绒玩具的毛发。

在传统框架中,对于抠图网络是基于粗分割结果对待处理图像进行抠图,粗分割结果可以为抠图网络提供大致的语义信息。当对抠图网络只输入待处理图像而不输入粗分割结果时抠图网络失去了语义信息,降低抠图的准确性。因此,在本申请的实施例中可以通过第一损失函数和第二损失函数训练抠图网络的参数,使得抠图网络大致能够学习到目标对象所在的前景区域与背景区域的区别。

可选地,抠图网络可以是基于第一损失函数和第二损失函数训练得到的,其中,第一损失函数可以用于区分所述前景区域和所述背景区域,第二损失函数可以用于获取待处理图像的目标对象的精细特征的抠图结果。

例如,第一损失函数可以是整体损失函数,整体损失函数可以用于表示通过抠图网络得到的样本图像的预测抠图结果与样本图像的标注语义分割特征之间的损失值;第二损失函数可以是局部损失函数,局部损失函数可以用于表示所述预测抠图结果中边缘区域特征与所述样本图像的标注边缘区域特征之间的损失值,所述边缘区域是指所述样本图像中目标对象所在前景区域的边缘。

在本申请的实施例中,抠图网络是为了学习更多图像中的细节信息,同时可以加强对图像中细节的位置信息的重视度。因此,本申请实施例在设计抠图网络时可以不采用对称的编码-解码结构。为了使得抠图网络学习到更多图像中的细节特征,则在设计编码模块时可以不采用比较深的神经网络层数;为了更加关注图像中细节特征的位置信息,则在设计解码模块时可以采用比较深的神经网络层数。

应理解,当解码模块中神经网络层数较少时,可能在恢复部分像素点后直接采用上采样恢复图像尺寸,此时会存在部分像素点的位置不准确。

可选地,抠图网络可以包括编码模块和解码模块,解码模块的神经网络层数大于编码模块的神经网络层数。

步骤604、将上述第一分割结果与上述抠图结果进行融合。

进一步地,为了使得粗分割结果和抠图结果在进行融合时,更加关注目标对象的精细特征即更加关注待处理图像中的细节信息,可选地,可以根据待处理图像,得到针对前景区域的边缘区域的注意力图;根据注意力图,将粗分割结果以及抠图结果进行融合。

在一种可能的实现方式中,上述融合可以是指根据注意力图对第一分割结果与抠图结果进行卷积处理。

例如,通过融合网络对注意力图、粗分割结果以及抠图结果进行卷积处理得到待处理图像中前景区域与背景区域的精细分割结果。比如,可以根据待处理图像,得到针对待处理图像的前景区域的边缘区域的注意力图可以是通过人工标注的样本图像的前景区域的边缘区域训练神经网络,得到用于获取注意力图的注意力图提取网络。

在一种可能的实现方式中,上述融合可以是指根据该注意力图,对该第一分割结果以及该抠图结果中对应像素点的数值进行相乘。

可选地,可以根据待处理图像,得到针对待处理图像的前景区域的边缘区域的注意力图可以是通过人工标注的样本图像的前景区域的边缘区域训练神经网络,得到用于获取注意力图的注意力图提取网络。

进一步地,为了减少用于获取注意力图的注意力图提取网络计算量,即设计网络结构简单的注意力图提取网络则可以获取完成训练的分割网络对待处理图像处理得到的特征信息,其中,特征信息可以是指分割网络得到待处理图像的特征图,或者,特征信息也可以是指分割网络的卷积层的参数,通过共享完成训练的分割网络的特征可以减少注意力图提取网络的计算量。

例如,获取分割网络对待处理图像处理得到的特征信息;根据待处理图像和特征信息,得到注意力图。

例如,图12所示为根据注意力图,将粗分割结果以及抠图结果进行融合的示意图。其中,融合模块可以是神经网络,通过融合模块可以将粗分割结果(即分割特征)、抠图结果(即抠图特征)通过注意力图进行融合。

步骤605、得到第二分割结果,即得到待处理图像的精细化分割蒙版。

其中,第二分割结果可以是待处理图像的精细分割结果,比如精细分割结果可以是指精细分割蒙版(Alpha)。例如,待处理图像中包含的目标对象为人像时,精细分割结果可以是指人像像素级精细化分割结果,其取值范围为0至1。

通过本申请实施例的图像处理方法,针对计算机视觉领域的精细分割任务,提出可并行的精细分割网络构架。抠图网络可以不依赖于分割结果,能够直接根据待处理图像获得准确的精细特征(例如,人像的发丝区域)的抠图结果。在保持精度的同时,整个精细分割网络训练可以仅部分依赖于人工标注的精细化分割蒙版,比如,对于并行的网络架构中可以通过人工标注的精细化分割蒙版训练抠图网络,通过普通分割数据训练分割网络,从而能够大幅减少人工标注的精细分割蒙版的数据量;此外,对于抠图网络作优化后,并行的精细分割网络构架可大幅降低网络运行时间,并且提高精细人像分割结果的鲁棒性。

需要说明的是,图8的例子仅仅是为了帮助本领域技术人员理解本申请实施例,而非要将本申请实施例限于所例示的具体数值或具体场景。本领域技术人员根据所给出的图8的例子,显然可以进行各种等价的修改或变化,这样的修改或变化也落入本申请实施例的范围内。

还应理解,上述对图7中对本申请实施例的图像处理方法的相关内容的扩展、限定、解释和说明也适用于图8所示的图像处理方法,为了避免不必要的重复,在对图8所示的图像处理方法进行描述时适当省略重复的描述。

图14是本申请实施例提供的图像处理方法的效果示意图。如图14所示,通过对待处理图像采用现有技术中的自动人像抠图算法(semantic human matting,SHM)、深度图像抠图算法(deep image matting,DIM)以及本申请中的图像处理方法与人工标注的精细化分割蒙版(ground-truth Alpha)图像处理效果进行比较,本申请实施例的图像处理方法在在发丝预测的完整性和镂空性上的处理效果甚至超过了人工标注的精细化分割蒙版。

表1

如表1所示,为根据人像抠图数据(human matting dataset),通过本申请实施例提出的可并行的精细分割网络构架评测结果,其中,测评结果包括均方误差(mean-squareerror,MSE)、梯度误差(gradient error,GradErr)以及运行时间方面的测试数据。从表1中的测试结果可以看出,本申请实施例提出的图像处理方法的效果优于传统框架算法(例如,自动人像抠图算法),通过采用本实施例中的图像处理方法的图像效果的评测指标和直接使用人工标注的精细化分割蒙版的效果接近。

例如,假设n个测量值的误差为ε

其中,σ表示均方误差,均方误差是指为各测量值误差的平方和的平均值的平方根;上述梯度误差可以是指图像梯度的均方误差。

相比于现有的人像精细分割网络的构架,本申请实施例提出的网络构架中的抠图网络可以不依赖于粗分割网络,实现分割网络与抠图的并行运行,从而提高图像处理的效率。例如,从表1中的运行时间的测试结果可以看出,本申请实施例的图像处理方法的运行时间降低到了传统框架所用时间的32.34%。另外,由于传统串行算法的网络训练需要全部依赖于精细化分割蒙版的数据标注,而本申请实施例中提出的可并行的精细分割网络构架可以将抠图网络和分割网络分步训练,实验测得训练数据可以由35311张(例如,对于SHM算法)精细化分割蒙版数据标注减少到1089张,其余只需要用普通的分割标注数据即可。

在本申请实施例提出的可并行的精细分割网络构架中,抠图网络可以不依赖于粗分割结果能够直接对待处理图像进行处理。在对精细分割网络的训练过程中可以部分依赖于人工标注的精细化分割数据,即训练时可以采用人工标注的精细化分割数据训练抠图网络,通过采用普通人像分割数据训练分割网络,从而能够大幅减少人工标注的数据量;其次,并行的精细分割网络构架可大幅降低网络运行时间,并且提高精细分割结果的鲁棒性。

应理解,上述举例说明是为了帮助本领域技术人员理解本申请实施例,而非要将本申请实施例限于所例示的具体数值或具体场景。本领域技术人员根据所给出的上述举例说明,显然可以进行各种等价的修改或变化,这样的修改或变化也落入本申请实施例的范围内。

上文结合图1至图14,详细描述了本申请实施例图像处理方法,下面将结合图15和图16,详细描述本申请的装置实施例。应理解,本申请实施例中的图像处理装置可以执行前述本申请实施例的各种图像处理方法,即以下各种产品的具体工作过程,可以参考前述方法实施例中的对应过程。

图15是本申请实施例提供的图像处理装置700的示意性框图。应理解,图像处理装置700能够执行图7或图8的方法中的各个步骤,为了避免重复,此处不再详述。图像处理装置700包括:获取单元710和处理单元720。

其中,获取单元710用于获取待处理图像;处理单元720用于将所述待处理图像并行地输入分割网络和抠图网络,获取所述分割网络输出的前景区域与背景区域的第一分割结果,及获取所述抠图网络输出的抠图结果;将所述第一分割结果以及所述抠图结果进行融合,得到所述前景区域与所述背景区域的第二分割结果。

需要说明的是,在本申请中第一分割结果可以是指粗分割结果,第二分割结果可以是指精细分割结果,其中,第二分割结果的精度大于第一分割结果。

可选地,作为一个实施例,所述处理图像中可以包含目标对象所在的前景区域与背景区域,处理单元720可以用于将所述待处理图像并行地输入至分割网络与抠图网络,得到分割网络输出的所述前景区域与所述背景区域的粗分割结果,以及得到所述抠图网络输出的所述目标对象的精细特征的抠图结果;将所述粗分割结果与所述抠图结果进行融合,得到所述前景区域与所述背景区域的精细分割结果。

可选地,作为一个实施例,所述处理单元720还用于根据所述待处理图像,得到针对所述前景区域的边缘区域的注意力图;根据所述注意力图,将所述第一割结果以及所述抠图结果进行融合。

可选地,作为一个实施例,所述处理单元720具体用于根据所述注意力图,对所述第一分割结果以及所述抠图结果进行卷积处理。

可选地,作为一个实施例,所述处理单元720具体用于获取所述分割网络对所述待处理图像处理得到的特征信息;根据所述待处理图像和所述特征信息,得到所述注意力图。

可选地,作为一个实施例,所述处理单元720具体用于:根据所述特征信息,得到注意力图提取网络;将所述待处理图像输入至所述注意力图提取网络,得到所述注意力图。

可选地,作为一个实施例,所述抠图网络包括编码模块和解码模块,所述解码模块的神经网络层数大于所述编码模块的神经网络层数。

可选地,作为一个实施例,所述抠图网络是基于第一损失函数和第二损失函数训练得到的,其中,所述第一损失函数用于区分所述前景区域和所述背景区域,所述第二损失函数用于获取目标对象的精细特征的抠图结果,所述前景区域包含所述目标对象。

可选地,作为一个实施例,所述目标对象为人像,所述精细特征为所述人像的发丝。

应理解,这里的图像处理装置700以功能单元的形式体现。这里的术语“单元”可以通过软件和/或硬件形式实现,对此不作具体限定。

例如,“单元”可以是实现上述功能的软件程序、硬件电路或二者结合。所述硬件电路可能包括应用特有集成电路(application specific integrated circuit,ASIC)、电子电路、用于执行一个或多个软件或固件程序的处理器(例如共享处理器、专有处理器或组处理器等)和存储器、合并逻辑电路和/或其它支持所描述的功能的合适组件。

因此,在本申请的实施例中描述的各示例的单元,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

图16是本申请实施例的图像处理装置的硬件结构示意图。图16所示的图像处理装置800包括存储器801、处理器802、通信接口803以及总线804。其中,存储器801、处理器802、通信接口803通过总线804实现彼此之间的通信连接。

存储器801可以是只读存储器(read-only memory,ROM),静态存储设备和随机存取存储器(random access memory,RAM)。存储器801可以存储程序,当存储器801中存储的程序被处理器802执行时,处理器802和通信接口803用于执行本申请实施例的图像处理方法的各个步骤,例如,可以执行图7和图8所示的图像处理方法的各个步骤。

处理器802可以采用通用的CPU、微处理器、ASIC、GPU或者一个或多个集成电路,用于执行相关程序,以实现本申请实施例的图15所示的图像处理装置中的单元所需执行的功能,或者执行本申请方法实施例的图像处理方法。

处理器802还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请实施例的图像处理方法的各个步骤可以通过处理器802中的硬件的集成逻辑电路或者软件形式的指令完成。

上述处理器802还可以是通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器801,处理器802读取存储器801中的信息,结合其硬件完成本申请实施例的图像处理装置中包括的单元所需执行的功能,或者执行本申请方法实施例的图像处理方法。

例如,处理器802可以与图15所示的图像处理装置中的处理单元720对应。

通信接口803使用例如但不限于收发器一类的收发装置,来实现装置800与其他设备或通信网络之间的通信。

例如,所示通信接口803可以与图15所示的图像处理装置中的获取单元710对应,可以通过通信接口803获取待处理图像。

总线804可包括在装置800各个部件(例如,存储器801、处理器802、通信接口803)之间传送信息的通路。

应注意,尽管上述图像处理装置800仅仅示出了存储器、处理器、通信接口,但是在具体实现过程中,本领域的技术人员应当理解,图像处理装置800还可以包括实现正常运行所必须的其他器件。同时,根据具体需要,本领域的技术人员应当理解,上述图像处理装置800还可包括实现其他附加功能的硬件器件。此外,本领域的技术人员应当理解,上述图像处理装置800也可仅仅包括实现本申请实施例所必须的器件,而不必包括图16中所示的全部器件。

应理解,本申请实施例中,该处理器可以为中央处理单元(central processingunit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

还应理解,本申请实施例中,该存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。处理器的一部分还可以包括非易失性随机存取存储器。例如,处理器还可以存储设备类型的信息。

应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。

应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本申请各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

相关技术
  • 信息处理装置、信息处理方法、控制装置、控制系统、控制方法、断层合成图像捕获装置、X射线成像装置、图像处理装置、图像处理系统、图像处理方法和计算机程序
  • 图像处理装置和图像处理方法、图像处理方法的程序、以及具有记录在其上的图像处理方法的程序的记录介质
技术分类

06120112422263