掌桥专利:专业的专利平台
掌桥专利
首页

基于多尺度变换的多聚焦图像融合方法及装置

文献发布时间:2023-06-19 11:57:35


基于多尺度变换的多聚焦图像融合方法及装置

技术领域

本公开涉及人工智能或计算机视觉领域,尤其涉及一种基于多尺度变换的多聚焦图像融合方法及装置。

背景技术

多聚焦图像融合技术旨在将不同聚焦设置下得到的多幅包含相同场景的图像融合在一起,形成一幅信息量更加完备的全清晰图像,得到的全清晰图像便于后续的计算机视觉任务,如识别、监督。为了获得优良的融合效果,研究人员提出了各种各样的图像融合方法,根据算法的原理,图像融合方法大体可以分成两大类:传统的图像融合方法和基于深度学习的图像融合方法。

传统的图像融合方法又可以进一步分为基于空间域的融合方法和基于变换域的融合方法。但是,该类多聚焦图像融合方法需要人为设计活跃水平检测和融合规则,这就极大地增加了算法设计所带来的困难。近年来,随着深度学习的广泛应用,基于深度学习的多聚焦图像融合获得了极大地发展,相较于传统的多聚焦图像融合方法,算法复杂度极大地降低,融合性能极大地改善。

目前,大多数的多聚焦图像融合算法,将卷积神经网络设计为一个分类器,一对训练数据设定一个标签,这种设置会导致在聚焦区域与非聚焦区域边缘出现误分类的情况出现。此外,只有聚焦点检测是由网络完成的,其余部分还需要人为设定判定准则,增加了算法的复杂度。另外,现有的神经网络训练方式使得网络本身难以对聚焦区域与非聚焦区域的边缘进行学习。还有,在定义多种掩模用于网络对聚焦区域与非聚焦区域边缘的学习时,但是这种规则形状的掩模不足以模拟现实的情况。

发明内容

针对现有多聚焦图像融合技术的上述不足,本公开提供一种基于多尺度变换的多聚焦图像融合方法及装置,以解决现有多聚焦图像融合技术在聚焦与非聚焦图像边缘融合不准确的问题。

本公开的一个方面提供了一种基于多尺度变换的多聚焦图像融合方法,包括:采集同一成像场景下的两幅输入图像A

根据本公开的实施例,两幅输入图像为两幅待融合且预先配准的多聚焦图像。

根据本公开的实施例,每级上下文特征提取模型均由3个具有不同感受野的并行卷积模块构成,得到每一级尺度下包含上下文信息的图像特征

根据本公开的实施例,在k级上下文特征提取模型中,输入图像A

根据本公开的实施例,通过引用自注意力机制将

其中,(i,j)分别表示行坐标和列坐标;H、W分别表示图像特征的像素宽度和高度;

根据本公开的实施例,感受野扩大分支包括两个部分图像子特征,每部分图像子特征均由连续的两个空洞卷积构成,其中:两个部分图像子特征分别按照以下公式计算得出:

其中,

根据本公开的实施例,输入图像A

其中,

根据本公开的实施例,使用同级尺度融合方式对k级尺度的图像特征

根据本公开的实施例,初步融合特征U

其中,mapn(n=1,2)表示经由softmax层操作得到的权值图;cat(.)表示级联操作;*表示像素级的乘法操作;+表示像素级的加法操作。

根据本公开的实施例,将每一级尺度的初步融合特征U

根据本公开的实施例,精化融合特征U′

其中,

根据本公开的实施例,使用图像重构模型对精化融合特征U′

其中,conv(;θ

根据本公开的实施例,两幅输入图像通过以下方式构建得到:输入包含多幅源图像的图像训练集,设定具有互补场景的第一掩膜和第二掩膜,通过第一掩膜获取源图像中的目标区域;对每幅源图像分别用第一掩膜和第二掩膜进行点乘运算,得到目标图像和背景图像;通过模糊滤波器分别对目标图像和背景图像进行连续多次模糊处理,得到具有不同模糊度的多组目标模糊图像和背景模糊图像;将每组具有相同模糊度的目标模糊图像和背景模糊图像分别相加,得到多组人工合成的多聚焦图像。

根据本公开的实施例,模糊滤波器为滑动窗口尺寸为7×7且标准差为2的高斯滤波器。

根据本公开的实施例,方法还包括:使用多聚焦图像融合网络模型来确定多个输入图像中一个输入图像的预测融合图像;利用联合损失函数计算使用多聚焦图像融合网络模型而确定的预测融合图像与输入图像的融合图像F

根据本公开的实施例,联合损失函数根据结构相似性损失函数和均方误差损失函数联合构建,其中;结构相似性损失函数L

L

其中,H、W分别表示图像的像素高度和宽度;(i,j)表示图像中的行坐标和列坐标;G(i,j)、P(i,j)分别表示对应像素坐标的真值图像和预测融合图像的颜色数值;||·||

根据本公开的实施例,使用输入图像An和输入图像的融合图像F

本公开的另一个方面提供了一种基于多尺度变换的多聚焦图像融合装置,包括:图像采集模块,用于采集同一成像场景下的两幅输入图像A

本公开的另一方面提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如上所述的方法。

本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。

本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。

与现有技术相比,本公开提供的基于多尺度变换的多聚焦图像融合方法及装置,至少具有以下有益效果:

(1)本公开无需人为设计特征提取、特征融合,能够实现多聚焦图像的准确融合,仿真结果表明本公开能够得到包含丰富信息量的融合图像;

(2)本公开使用基础网络提取多级、不同尺度的包含丰富细节信息与上下文信息的深度图像特征,能够有效地利用图像中的上下文信息辅助网络对于多聚焦图像中聚焦区域的判断,从而改善特征提取;

(3)本公开通过构建特征融合模块将相同尺度、不同分支的图像特征融合在一起,然后将当前尺度下的融合图像特征与经由反多尺度变换的融合图像特征融合在一起,通过反向传递的方式实现特征的逐级精化,有效改善了融合图像中的细节信息。

附图说明

通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:

图1示意性示出了根据本公开实施例的基于多尺度变换的多聚焦图像融合方法的流程图;

图2示意性示出了根据本公开实施例的基于多尺度变换的多聚焦图像融合方法的操作流程图;

图3示意性示出了根据本公开实施例的输入图像的人工合成流程图;

图4示意性示出了根据本公开实施例的连续多次模糊处理过程;

图5示意性示出了根据本公开实施例的注意力权重分支的处理过程;

图6示意性示出了根据本公开实施例的初步融合特征的处理过程;

图7示意性示出了根据本公开实施例的精化融合特征的处理过程;

图8示意性示出了根据本公开实施例的用训练数据来训练多聚焦图像融合网络模型的流程图;

图9示意性示出了根据本公开实施例的基于多尺度变换的多聚焦图像融合装置的框图;以及

图10示意性示出了根据本公开实施例的电子设备的框图。

具体实施方式

以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。

在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。

在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。

在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。

在详细描述本公开的具体实施例之前,首先对技术术语进行阐释,以便于更好地理解本公开。

卷积神经网络(CNN):作为一种有监督深度学习模型,是一种可训练的多层结构,旨在学习输入数据的多级特征表示,并且每级特征都包含了多张特征映射。特征映射中的系数称为神经元,特征映射通过执行卷积、非线性激活和空间池化等几种不同类型的计算连接。通常,输入经过卷积层之后会紧接着进行非线性处理,通常采用Sigmoid函数、Relu激活函数和tanh函数等非线性函数,从而能够加快网络训练时的收敛速度,加快网络训练过程。

感受野:是指卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。研究感受野的相关理论和方法,量化卷积神经网络中每层的感受野大小,可以为目标检测等图像处理任务提供可靠的优化方向,对于提升目标检测的精度具有重要的意义。

多尺度:实际上就是对信号的不同粒度的采样,通常在不同的尺度下我们可以观察到不同的特征,从而完成不同的任务。通常来说,粒度更小/更密集的采样可以看到更多的细节,粒度更大/更稀疏的采样可以看到整体的趋势。

空洞卷积(dilated convolution):通过在稀疏采样位置进行卷积,以原始权重放大卷积核,从而在不增加额外成本的情况下增大了感受野的大小。并且,空洞卷积在语义分割中可以整合大量的上下文信息。

softmax层:用于分类,通过softmax函数,将神经网络的输出结果转化成概率表达式,找到最大概率项,为其分类。softmax层通常用在神经网络中的最后一层,用来进行最后的分类和归一化。

图像掩膜:是指用选定的图像、图形或物体,对处理的图像(全部或局部)进行遮挡,来控制图像处理的区域或处理过程。在数字图像处理中,可以用掩膜对图像上某些区域作屏蔽,使其不参加处理或不参加处理参数的计算,或仅对屏蔽区作处理或统计。

本公开的实施例提供了一种基于多尺度变换的多聚焦图像融合方法,包括:采集同一成像场景下的两幅输入图像A

图1示意性示出了根据本公开实施例的基于多尺度变换的多聚焦图像融合方法的流程图。图2示意性示出了根据本公开实施例的基于多尺度变换的多聚焦图像融合方法的操作流程图。

参阅图2,对图1所示的方法做详细说明。本公开实施例的基于多尺度变换的多聚焦图像融合方法可以包括以下操作S101~S106。

在操作S101,采集同一成像场景下的两幅输入图像A

在操作S102,使用k级上下文特征提取模型从输入图像中分别提取位于不同深度的k级尺度的图像特征

在操作S103,使用同级尺度融合方式对k级尺度的图像特征

在操作S104,将每一级尺度的初步融合特征U

在操作S105,使用图像重构模型对精化融合特征U′

在操作S106,使用输入图像A

本公开的实施例通过使用k级上下文特征提取模型对多聚焦图像分别提取多级深度且多尺度的图像特征,并通过对不同尺度的图像特征执行反变换,实现不同层级、不同尺度图像特征的融合,不需要人为设计特征提取和特征融合,即可实现多聚焦图像的准确融合,挖掘大量客观准确的训练数据,提高了多聚焦图像融合网络模型的训练效率和准确度。

通过本公开的实施例,对于经过步骤S102得到的k级不同尺度的图像特征,使用相同层级融合的方式,得到初步融合特征,然后,采取由粗到精的方式,实现融合特征的精化。

本公开实施例中,两幅输入图像为两幅待融合且预先配准的多聚焦图像。

由于成像设备景深的原因以及在实际进行图像获取时会有针对性地获取目标,从而导致聚焦区域内的目标会比较清晰而其余部分会比较模糊。为了能够更好地模拟聚焦区域的目标特性以及增加网络对于聚焦区域与非聚焦区域边缘的学习,本公开例如使用用于显著性目标检测的数据集MSRA10K用作基础数据集来人工合成输入图像,该基础数据集包含10000幅图像。需要说明的是,在其他实施例中,该图像训练集的来源和图像大小均可根据实际训练过程进行设置,本公开对此不做限制。

图3示意性示出了根据本公开实施例的输入图像的人工合成流程图。图4示意性示出了根据本公开实施例的连续多次模糊处理过程。

参考图4,对图3所示的输入图像的人工合成过程做进一步说明。在一些实施例中,该两幅输入图像可以通过以下子操作S110-S140构建得到:

在操作S110,输入包含多幅源图像的图像训练集,设定具有互补场景的第一掩膜和第二掩膜,通过第一掩膜获取源图像中的目标区域。

目标区域是指目标对象的所在区域,通过第一掩膜作用于源图像来选定目标区域。例如,源图像可以是人脸图像,目标区域可以是人脸区域。

本公开实施例中,在设定好第一掩膜后,对第一掩膜取反即可得到第二掩膜。

在操作S120,对每幅源图像分别用第一掩膜和第二掩膜进行点乘运算,得到目标图像和背景图像。

由于第一掩膜作用于源图像来选定目标区域,得到目标图像。而第二掩膜和第一掩膜具有互补场景,第二掩膜通过点乘运算作用于源图像可以获取该目标区域的剩余区域,也即背景图像。

在操作S130,通过模糊滤波器分别对目标图像和背景图像进行连续多次模糊处理,得到具有不同模糊度的多组目标模糊图像和背景模糊图像。

例如,该模糊滤波器可以为滑动窗口尺寸为7×7且标准差为2的高斯滤波器,该连续多次模糊处理可以为连续操作5次高斯模糊处理。

如图4所示,使用窗口尺寸为7,参数为2的高斯滤波器对选中的目标部分连续操作5次,可以得到5幅不同模糊程度的目标模糊图像。相应地,对背景图像进行相同的连续模糊处理,可以得到5幅不同模糊程度的背景模糊图像。

在操作S140,将每组具有相同模糊度的目标模糊图像和背景模糊图像分别相加,得到多组人工合成的多聚焦图像。

基于相同模糊度将以上多组目标模糊图像和背景模糊图像进行叠加,可以得到具有不同模糊度的多聚焦图像,由此本公开的输入图像具有不同深度。还需要说明的是,本公开实施例的深度也即模糊度,为了适应计算机视觉中的图像处理领域,以下统一以深度来论述。

本公开实施例中,在操作S102中,每级上下文特征提取模型均由3个具有不同感受野的并行卷积模块构成,得到每一级尺度下包含上下文信息的图像特征

每级上下文特征提取模型均由3个具有不同感受野的并行卷积模块构成,通过将不同层次的图像特征融合在一起,获取单一尺度下包含上下文信息的图像特征。

在原始图像特征分支中,输入图像A

为了便于理解,假设k=4,任意输入图像A

其中,

由此,需要对计算输入前一级尺度特征

图5示意性示出了根据本公开实施例的注意力权重分支的处理过程。

如图5所示,注意力权重分支的处理过程可以包括以下子操作S210-S220。

在操作S210,通过引用自注意力机制将

例如,自注意力机制可以采用尺寸为1且输出32个通道的滤波器对

在操作S220,采用Sigmoid函数为过渡图像特征

具体来说,根据以下公式计算得出过渡图像特征

其中,(i,j)分别表示行坐标和列坐标;H、W分别表示图像特征的像素宽度和高度;

本公开实施例中,感受野扩大分支包括两个部分图像子特征,每部分图像子特征均由连续的两个空洞卷积构成,其中:

两个部分图像子特征分别按照以下公式计算得出:

其中,

由此,综合并行卷积模块包括的三个分支,计算输出,也即第d级尺度特征

其中,

图6示意性示出了根据本公开实施例的初步融合特征的处理过程。

如图6所示,使用同级尺度融合方式对k级尺度的图像特征

在操作S310,从两幅输入图像中将具有同级尺度的图像特征

在操作S320,第d级尺度特征

由此,本公开实施例对不同尺度的图像特征,采用级联的方式,再经过softmax层得到像素级的权重信息,与原图像特征分别做像素级的乘法操作,然后,经由像素级的加法操作得到初步融合特征。

具体来说,初步融合特征U

其中,mapn(n=1,2)表示经由softmax层操作得到的权值图;cat(·)表示级联操作;*表示像素级的乘法操作;+表示像素级的加法操作。

图7示意性示出了根据本公开实施例的精化融合特征的处理过程。

如图7所示,将每一级尺度的初步融合特征U

在操作S410,采取逐级尺度反向传递的方式,使第d级尺度的初步融合特征U

在操作S420,对前一级初步融合特征U

具体来说,精化融合特征U′

其中,

将步骤S420得到的精化融合特征U′

其中,conv(;θ

由此可见,本公开实施例通过深度监督机制与反向传播法则,将得到的初步融合特征执行反变换,并采取反向传递的方式,实现不同尺度的图像特征的融合。

本公开实施例中,多聚焦图像融合网络模型可以为Mobilenet系列神经网络模型或Resnet系列神经网络模型。其中,Mobilenet系列神经网络模型是基于深度级可分离卷积的神经网络模型,Resnet系列神经网络模型是基于残差的神经网络模型。

在一些实施例中,输入图像的数量可以大于两幅,对于两幅以上的输入多聚焦图像,可以通过执行上述步骤S101至S106,先融合两幅多聚焦图像,然后重复对其他两幅多聚焦图像采取相同的融合步骤,直至所有多聚焦图像融合完毕。

图8示意性示出了根据本公开实施例的用训练数据来训练多聚焦图像融合网络模型的流程图。在该示例中,训练数据包括多幅输入图像以及针对每幅输入图像的融合图像F

在操作S610,使用多聚焦图像融合网络模型来确定多个输入图像中一个输入图像的预测融合图像;

在操作S620,利用联合损失函数计算使用多聚焦图像融合网络模型而确定的预测融合图像与输入图像的融合图像F

在操作S630,判断损失值是否满足预设损失阈值,如果否,则根据损失值调整多聚焦图像融合网络模型的参数,并针对多个输入图像中另一个输入图像返回使用多聚焦图像融合网络模型来确定融合输出图像的步骤。

本公开实施例中,操作S620中的联合损失函数根据结构相似性损失函数和均方误差损失函数联合构建,其中,结构相似性损失函数L

L

其中,H、W分别表示图像的像素高度和宽度;(i,j)表示图像中的行坐标和列坐标;G(i,j)、P(i,j)分别表示对应像素坐标的真值图像和预测融合图像的颜色数值;||·||

由此,本公开实施例构建的联合损失函数,包括基于图像块级的损失(结构相似性损失函数)和基于像素级的损失(均方误差损失函数),优化图像融合的质量,完成网络的训练,得到网络模型参数,通过优化损失函数实现图像的准确重构。

在一些实施例中,使用输入图像A

由于数据训练集中的图像具有任意的尺寸,例如把图像统一变换为180×180像素的预设尺寸,以适应后续使用的多聚焦图像融合网络模型。

图9示意性示出了根据本发明实施例的基于多尺度变换的多聚焦图像融合装置的框图。

如图9所示,基于多尺度变换的多聚焦图像融合装置900可以包括图像采集模块910、特征提取模块920、初步融合模块930、反变换融合模块940、图像重构模块950和网络训练模块960。

图像采集模块910,用于采集同一成像场景下的两幅输入图像A

特征提取模块920,用于使用k级上下文特征提取模型从输入图像中分别提取位于不同深度的k级尺度的图像特征

初步融合模块930,用于使用同级尺度融合方式对k级尺度的图像特征

反变换融合模块940,用于将每一级尺度的初步融合特征U

图像重构模块950,用于使用图像重构模型对精化融合特征U′

网络训练模块960,用于使用输入图像An和输入图像的融合图像F

需要说明的是,本公开的实施例的装置部分与本公开的实施例的方法部分是相对应的,基于多尺度变换的多聚焦图像融合装置部分的描述具体参考基于多尺度变换的多聚焦图像融合方法部分,在此不再赘述。

根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。

例如,图像采集模块910、特征提取模块920、初步融合模块930、反变换融合模块940、图像重构模块950和网络训练模块960中的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,图像采集模块910、特征提取模块920、初步融合模块930、反变换融合模块940、图像重构模块950和网络训练模块960中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,图像采集模块910、特征提取模块920、初步融合模块930、反变换融合模块940、图像重构模块950和网络训练模块960中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。

图10示意性示出了根据本发明实施例的电子设备的框图。图10示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。

如图10所示,电子设备1000包括处理器1010、计算机可读存储介质1020。该电子设备1000可以执行根据本公开实施例的基于多尺度变换的多聚焦图像融合方法。

具体地,处理器1010例如可以包括通用微处理器、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器1010还可以包括用于缓存用途的板载存储器。处理器1010可以是用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。

计算机可读存储介质1020,例如可以是非易失性的计算机可读存储介质,具体示例包括但不限于:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;等等。

计算机可读存储介质1020可以包括计算机程序1021,该计算机程序1021可以包括代码/计算机可执行指令,其在由处理器1010执行时使得处理器1010执行根据本公开实施例的方法或其任何变形。

计算机程序1021可被配置为具有例如包括计算机程序模块的计算机程序代码。例如,在示例实施例中,计算机程序1021中的代码可以包括一个或多个程序模块,例如包括1021A、模块1021B、……。应当注意,模块的划分方式和个数并不是固定的,本领域技术人员可以根据实际情况使用合适的程序模块或程序模块组合,当这些程序模块组合被处理器1010执行时,使得处理器1010可以执行根据本公开实施例的方法或其任何变形。

根据本公开的实施例,图像采集模块910、特征提取模块920、初步融合模块930、反变换融合模块940、图像重构模块950和网络训练模块960中的至少一个可以实现为参考图10描述的计算机程序模块,其在被处理器1010执行时,可以实现上面描述的相应操作。

本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的基于多尺度变换的多聚焦图像融合方法。

附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。

以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

相关技术
  • 基于多尺度变换的多聚焦图像融合方法及装置
  • 基于多聚焦图像融合和HDR算法的样本图像融合方法及装置
技术分类

06120113115743