掌桥专利:专业的专利平台
掌桥专利
首页

一种图像处理方法和电子设备

文献发布时间:2024-04-18 19:58:21


一种图像处理方法和电子设备

技术领域

本申请涉及图像处理技术领域,并且具体地,涉及一种图像处理方法和电子设备。

背景技术

随着智能终端日益发展,拍摄功能成为智能终端的必备功能。用户对智能终端的拍摄(拍照和/或摄像)需求以及体验也不断增强。目前在高动态范围场景下,用户拍摄的照片或视频颜色还原效果较差,难以准确还原真实场景的观感,给用户造成一种颜色失真的感受,严重影响用户的拍摄体验。

发明内容

有鉴于此,本申请提供了一种图像处理方法、电子设备、计算机可读存储介质和计算机程序产品,有助于还原真实场景下的原始色彩,提升图像的视觉效果,能够提升用户的拍摄体验。

第一方面,提供了一种图像处理方法,包括:

获取多曝光帧,所述多曝光帧至少包括第一曝光帧、第二曝光帧、第三曝光帧,其中,第一曝光帧的曝光时长大于第二曝光帧的曝光时长,第二曝光帧的曝光时长大于第三曝光帧的曝光时长;比如,第一曝光帧是长曝光帧、第二曝光帧是中曝光帧、第三曝光帧是短曝光帧;

基于所述第三曝光帧和所述第二曝光帧,确定第一Lab颜色空间;

基于所述多曝光帧,生成待校正的RGB图像;

对所述待校正的RGB图像进行颜色空间转换处理,获得第二Lab颜色空间;

利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正,获得第三Lab颜色空间;

将所述第三Lab颜色空间进行RGB转换处理,输出校正后的RGB图像。

上述方法可以由终端设备或终端设备中的芯片执行。基于上述方案,针对亮区采用短曝光帧,针对暗区采用中曝光帧,而短曝光帧包含了更多的原始颜色信息,即短曝光帧更接近真实色彩,因此基于得到的第一Lab颜色空间可以很好得对第二Lab颜色空间进行校正,从而尽可能得恢复真实场景的色彩,提高照片或视频的色彩还原度,有助于还原真实场景下的原始色彩,提升图像的视觉效果,能够提升用户的拍摄体验。

在一种可能的实现方式中,基于所述第三曝光帧和所述第二曝光帧,确定第一Lab颜色空间,包括:

基于第一色彩参数对所述第二曝光帧进行颜色空间转换,获得所述第二曝光帧对应的Lab颜色空间,其中,所述第一色彩参数是所述第二曝光帧对应的色彩参数;

基于第二色彩参数对所述第三曝光帧进行颜色空间转换,获得所述第三曝光帧对应的LAB颜色空间,其中,所述第二色彩参数是所述第三曝光帧对应的色彩参数;

将所述第二曝光帧对应的Lab颜色空间和所述第三曝光帧对应的Lab颜色空间进行融合,得到所述第一Lab颜色空间。

示例性地,通过颜色空间转换,可获得短曝光帧的Lab颜色空间以及中曝光帧的Lab颜色空间,从而可以生成用于后续色彩校正的第一Lab颜色空间,实现后续对第二Lab颜色空间进行校正,从而尽可能得恢复真实场景的色彩。

在一种可能的实现方式中,所述将所述第二曝光帧对应的Lab颜色空间和所述第三曝光帧对应的Lab颜色空间进行融合,包括:

基于第一融合权重,对所述第二曝光帧对应的Lab颜色空间和所述第三曝光帧对应的Lab颜色空间进行融合;

其中,所述第一融合权重是基于第一亮度分量确定的,所述第一亮度分量是所述第二曝光帧对应的Lab颜色空间的亮度分量。

示例性地,第一Lab颜色空间满足下式:

Lab_merged=Lab_N*W1+Lab_S*(1-W1);

其中,Lab_merged表示所述第一Lab颜色空间,W1表示所述第一融合权重,Lab_N表示中曝光帧对应的Lab颜色空间,Lab_S表示短曝光帧对应的Lab颜色空间。

采用第一Lab颜色空间对第二Lab颜色空间进行校正的原因在于:第一Lab颜色空间是通过中曝光帧对应的Lab颜色空间和短曝光帧对应的Lab颜色空间进行融合得到的,且二者融合的本质在于:针对亮区采用短曝光帧,针对暗区采用中曝光帧,而短曝光帧包含了更多的原始颜色信息,即短曝光帧更接近真实色彩,因此基于得到的第一Lab颜色空间可以很好得对第二Lab颜色空间进行校正,从而尽可能得恢复真实场景的色彩。

在一种可能的实现方式中,所述利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正,获得第三Lab颜色空间,包括:

基于第二融合权重,利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正,获得第三Lab颜色空间;其中,所述第二融合权重是基于所述第一Lab颜色空间和所述第二Lab颜色空间的空间距离确定的。

本申请实施例对第二融合权重的确定方式不作具体限定。

在一种可能的实现方式中,所述第二融合权重满足下式:

W2=-K*d+b;

其中,W2表示所述第二融合权重;K和b为常数系数;d表示所述第一LAB颜色空间和所述第二Lab颜色空间的空间距离,

其中,Labmerged(a)表示所述第一Lab颜色空间的a分量,Labmerged(b)表示所述第一Lab颜色空间的b分量,Lab_HDR(a)表示所述第二Lab颜色空间的a分量,Lab_HDR(b)表示所述第二Lab颜色空间的b分量。

比如,d的取值越大,W2的值越大;第一Lab颜色空间和第二Lab颜色空间的空间距离越近,即d的取值越小,W2的值越小。也就是说,二者空间距离越大,越需要使用第一Lab颜色空间对第二Lab颜色空间进行校正,因此W2的值会越大。

在一种可能的实现方式中,利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正还包括:

在利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正时,对鬼影区域进行剔除处理;

其中,所述鬼影区域是基于多帧融合图像确定的,所述多帧融合图像对所述多曝光帧进行多帧融合处理得到的。

由于在进行多帧HDR融合时,对于鬼影区域会进行空洞填充等特殊处理,因此不需要对鬼影区域进行色彩恢复,即在利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正时,可排除或剔除鬼影区域对应的像素点。

在一种可能的实现方式中,所述第三Lab颜色空间满足下式:

Lab_Fusion=W2*Labmerged*(1-ghostmask)+(1-W2)*Lab_HDR*ghostmask

其中,Lab_Fusion表示所述第三LAB颜色空间,W2表示第二融合权重,Labmerged表示所述第一Lab颜色空间,Lab_HDR表示所述第二Lab颜色空间,ghostmask表示所述鬼影区域。

在一种可能的实现方式中,对待校正的RGB图像进行颜色空间转换处理,获得第二Lab颜色空间,包括:

基于第一色彩参数,将所述待校正的RGB图像从RAW域转换到Lab域,得到所述第二Lab颜色空间,其中,所述第一色彩参数是所述第二曝光帧对应的色彩参数。

本申请实施例主要是为了校正亮区的颜色,使得亮区恢复原始色彩。因此在将所述待校正的RGB图像从RAW域转换到Lab域时,使用第一曝光帧(中曝光帧)对应的色彩参数即可。此处使用中曝光帧对应的色彩参数能保证暗区的颜色与中曝光帧的颜色偏差不是很大。

在一种可能的实现方式中,基于所述多曝光帧,生成待校正的RGB图像,包括:

对所述长曝光帧、所述第二曝光帧、所述第三曝光帧进行多帧融合处理,得到多帧融合图像;

对多帧融合图像进行色调映射处理,得到所述待校正的RGB图像。

因此,在进行色彩校正之前,需要先结合多帧融合处理算法以及色调映射模块,获得待校正的RGB图像。

在一种可能的实现方式中,在获取多曝光帧之前,所述方法还包括:

接收到用户的第一操作,所述第一操作为拍照操作,或者,所述第一操作为录制视频操作。

也就是说,本申请实施例的图像处理方法适用于拍照场景,或者,录制视频的场景。

第二方面,提供了一种电子设备,包括用于执行第一方面中任一种实现方式的方法的单元。该电子设备可以是终端,也可以是终端内的芯片。该电子设备包括输入单元、显示单元和处理单元。

当该电子设备是终端时,该处理单元可以是处理器,该输入单元可以是通信接口,该显示单元可以是图形处理模块和屏幕;该终端还可以包括存储器,该存储器用于存储计算机程序代码,当该处理器执行该存储器所存储的计算机程序代码时,使得该终端执行第一方面中的任一种方法。

当该电子设备是终端内的芯片时,该处理单元可以是芯片内部的逻辑处理单元,该输入单元可以是输入接口、管脚或电路等,该显示单元可以是芯片内部的图形处理单元;该芯片还可以包括存储器,该存储器可以是该芯片内的存储器(例如,寄存器、缓存等),也可以是位于该芯片外部的存储器(例如,只读存储器、随机存取存储器等);该存储器用于存储计算机程序代码,当该处理器执行该存储器所存储的计算机程序代码时,使得该芯片执行第一方面的任一种方法。

第三方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序代码,当所述计算机程序代码被电子设备运行时,使得该电子设备执行第一方面中的任一种方法。

第四方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序代码,当所述计算机程序代码被电子设备运行时,使得该电子设备执行第一方面中的任一种方法。

附图说明

图1是本申请实施例的应用场景的一个示例图;

图2是本申请实施例的图像处理方法的一个示意性流程图;

图3是本申请实施例的图像处理方法的另一示意性流程图;

图4是本申请实施例的W1与L的关系的示意图;

图5是本申请实施例的图像处理方法的算法框图;

图6是应用本申请实施例的软件架构的一个示例图;

图7是一种适用于本申请的电子设备的结构示意图。

具体实施方式

下面将结合附图,对本申请实施例中的技术方案进行描述。

本申请实施例中,除非另有说明,“多个”的含义可以是两个或两个以上。

本申请实施例适用于电子设备,该电子设备可以为手机、智慧屏、平板电脑、可穿戴电子设备、车载电子设备、增强现实(augmented reality,AR)设备、虚拟现实(virtualreality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)、投影仪等等。

本申请实施例的电子设备中装备有图像采集器(比如摄像头)。

本申请实施例对电子设备的具体类型不作任何限制。下文以电子设备是手机为例描述本申请实施例的图像处理方法。

以下结合图1中的场景示例说明。图1是本申请实施例的一个应用场景示例图。

如图1中(1)所示的手机界面中,界面可以显示多个应用程序:应用1、应用2、…、应用7以及相机应用程序。用户点击相机应用程序,手机启动相机。在相机运行后,手机界面显示如图1中(2)所示的界面。该界面可以称为相机的拍摄界面。该拍摄界面中可以包括取景框11、拍摄模式栏(比如人像、夜景、拍照、录像、更多)、拍照控件和摄像头旋转控件等。其中,取景框11用于获取拍摄预览的图像,可以实时显示预览图像。拍摄模式栏用于用户切换不同的拍摄模式。拍照控件用于实现拍照功能。摄像头旋转控件可以用于切换摄像头。

作为一种示例,如图1中(2)所示,用户点击录像模式时,界面显示如图1中(3)所示的界面,界面显示有录像控件12。当用户点击录像控件12时,手机开始录制视频,比如,界面显示如图1中(4)所示。

如图1中(4)所示,界面中显示的是第5秒的录制画面。界面中包括录像中手动拍照控件13、录像停止控件14和录像暂停控件15。当用户点击手动拍照控件13时,可实现在录像过程中手动抓拍照片;当用户点击录像停止控件14时,可以停止录制视频;当用户点击录像暂停控件15时,可以暂停当前录制。

应理解,图1中的拍照场景只是示意性说明本申请的一个应用场景,这并不对本申请实施例构成限定。事实上,本申请实施例也可以应用于其他使用摄像头拍照或录像的场景。

还应理解,图1中(2)至图1中(4)示出的是用户在手机竖屏下进行拍摄的一个界面示意图,但本申请并不限于此。比如,用户可以在手机横屏下进行拍摄。

在一些实施例中,手机可采用四色滤波器阵列(Quadra Color Filter Array,Quadra CFA)传感器(sensor)摄像头(camera)。摄像头的关键器件包括光学镜片(lens)和图像传感器(sensor)。在摄像头启动后,sensor可基于采集到的图像信号出图。在本申请实施例中,sensor采用何种方式出图取决于拍摄场景的变焦倍率和环境照度。

可以理解,本申请实施例对摄像头如何启动不作具体限定。例如,如图1中(1)所示,用户点击相机应用程序可以摄像头。

为了便于理解,在介绍本申请实施例的图像处理方法之前,首先对本申请实施例涉及的部分术语进行解释。

1、Lab是一种颜色空间,全称是CIELAB,有时候也写成CIE L*a*b*。在Lab颜色空间中,每个颜色采用L、a、b三个数字表示,各个分量的含义如下:

L分量代表明度(或者说亮度),取值0~100;

a分量代表从绿色到红色的分量,取值-128~127;

b分量代表从蓝色到黄色的分量,取值-128~127。

2、色彩参数是指用于表征图像色彩的相关参数。在本申请实施例中,色彩参数包括但不限于以下参数中的一项或多项:自动白平衡(Automatic white balance,AWB)、颜色校正矩阵(Color Correction Matrix,CCM)、黑电平校正(black level correction,BLC)参数、Gamma参数。其中,Gamma参数可以理解为使用log曲线提亮暗区,使暗处细节符合人眼观感。

3、Raw域转换到Lab域的过程是指:采用色彩参数将Raw域转换到Lab域。比如,Raw域转换到Lab域可以包括以下过程:

1)利用blc,awb,ccm,gamma将从raw域转到sRGB域;

raw_blc=Raw-blc;

raw_awb=raw_blc*awb(rgain,bgain)

raw_gamma=raw_ccm

其中,Raw代表图像帧的像素值;

2)进行标准Gamma2.4的反Gamma变换,从raw域转换到线性RGB域:

raw_degamma=raw_gamma

3)利用raw_degamma的像素值进行线性变换,转换到XYZ空间:

X=0.412453*R+0.357580*G+0.180423*B

Y=0.212671*R+0.715160*G+0.072169*B

Z=0.019334*R+0.119193*G+0.950227*B

上述公式中的RGB值即raw_degamma的像素值;

4)以D65光源标准白点为参考,对步骤3)得到的XYZ空间值进行归一化:

x=X/Xref_white

y=Y/Yref_white

z=Z/Zref_white;

比如,XYZ_ref_white=(0.95047,1.0,1.08883)。

5)将4)中得到的x、y、z值进行非线性变换处理,即将4)中得到的x、y、z值代入下式:

6)将5)中得到的值转换到Lab域:

L=116·y-16;

a=500·(x-y);

b=200·(y-z);

应理解,上述步骤1)至步骤6)示出的是将图像帧从Raw域转换到Lab域的示例,本申请实施例并不限于此。

需要说明的是,在本申请实施例中,在将中曝光帧转换到Lab颜色空间或将短曝光帧转换到Lab颜色空间时,或者,在将待校正的RGB图像从Raw域转换到Lab域时,均可参考上述步骤完成颜色空间的转换。

应理解,在本申请实施例中,在将中曝光帧转换到Lab颜色空间时,利用的是中曝光帧对应的色彩参数;在将短曝光帧转换到Lab颜色空间时,利用的是短曝光帧对应的色彩参数;在将待校正的RGB图像从Raw域转换到Lab域时,利用的是中曝光帧对应的色彩参数。

4、Lab域转换到RGB域的过程可以理解为是上述3中Raw域转换到Lab域过程的逆变换。比如,可通过以下步骤a至步骤:

步骤a,从Lab域转换到XYZ,具体可包括以下变换过程:

(1)线性变换:y=(L+16)/116;x=a/500+y;z=y-b/200;

其中,L代表亮度分量,a代表从绿色到红色的分量,b代表从蓝色到黄色的分量;

(2)非线性变换:

(3)反归一化:

X=x*Xref_white

Y=y*Yref_white

Z=z*Zref_white;

其中,“*”代表作乘运算。

步骤b,从XYZ转换到sRGB域,具体可包括以下变换过程:

(1)线性变换:

其中,

(2)Gamma变换:

将(1)中得到的RGB至代入t;

其中,

(3)反归一化:

r=R*255

g=G*255

b=B*255

可以理解,上述反归一化的过程中仅是以常见的8比特(bit)位宽图像(对应的归一化最大值为255)作为示例进行描述,本申请实施例并不限于此。事实上,在实际应用过程中可根据图像的真实位宽来确定归一化的最大值。

通过上述步骤a和步骤b,可实现从Lab域转换到XYZ。

应理解,上述步骤a至步骤b示出的是将图像帧从Lab域转换到RGB域的示例,本申请实施例并不限于此。

目前在高动态范围HDR场景进行拍照或录制视频时,获得的照片或会出现颜色失真的问题。比如,针对高亮区域的Raw数据,经过色调映射处理后更容易出现色彩失真的问题。有鉴于此,本申请实施例提供了一种图像处理方法和电子设备,利用短曝光帧和中曝光帧确定融合后的颜色空间,并基于融合后的颜色空间对待校正图像(或者说出现颜色失真的图像)进行色彩校正,获得校正后的图像,有助于恢复色彩。

图2是本申请实施例的图像处理方法的一个示意性流程图。如图2所示,所述方法包括:

步骤210,获取多曝光帧,所述多曝光帧至少包括第一曝光帧、第二曝光帧、第三曝光帧,其中,第一曝光帧的曝光时长大于第二曝光帧的曝光时长,第二曝光帧的曝光时长大于第三曝光帧的曝光时长。

本申请实施例对获取多曝光帧的具体触发条件不作限定。比如,手机接收到用户的拍照操作,基于拍照操作触发相机传感器(sensor)出多曝光帧。又比如,手机接收到用户的录像操作,基于录像操作触发sensor出多曝光帧。

可选地,可通过摄像头的相机传感器(sensor)采集或抓取原始RAW(Raw imageformat)数据,获得上述多曝光帧。

示例性地,所述多曝光帧包括长曝光帧(对应第一曝光帧)、中曝光帧(对应第二曝光帧)、短曝光帧(对应第三曝光帧)。

通常来讲,为得到高动态范围(high dynamic range,HDR)图像,可针对同一拍摄对象获得不同曝光时长的多曝光帧,并对多曝光帧进行融合,获得HDR图像。比如,不同曝光时长的多曝光帧包括长曝光帧、中曝光帧和短曝光帧。其中,长曝光帧对应的曝光时长为t1,中曝光帧的对应的曝光时长为t2,短曝光帧的对应的曝光时长为t3,其中,t1>t2>t3。

示例性地,长(long)曝光帧可表示为L帧;中(normal)曝光帧可表示为N帧;短(short)曝光帧可表示为S帧。中曝光帧也可以称作正常曝光的参考帧。

可选地,多曝光帧还可以包括超长(very long)曝光帧、超短(very short)曝光帧。超长曝光帧的曝光时长大于长曝光帧的曝光时长。超短曝光帧的曝光时长小于短曝光帧的曝光时长。

需要说明的是,为便于理解或描述,本申请实施例是以多曝光帧包括长曝光帧、中曝光帧、短曝光帧为例进行说明。事实上,本申请实施例的技术方案也可以扩展到多曝光帧包括更多曝光帧的情况。比如,可以扩展到多曝光帧包括长曝光帧、中曝光帧、短曝光帧、超短曝光帧的情况,也可以扩展到多曝光帧包括超长曝光帧、长曝光帧、中曝光帧、短曝光帧的情况,也可以扩展到多曝光帧包括超长曝光帧、长曝光帧、中曝光帧、短曝光帧、超短曝光帧的情况。

步骤220,基于短曝光帧(对应第三曝光帧)和中曝光帧(对应第二曝光帧),确定第一Lab颜色空间。

在本申请实施例中,可以将短曝光帧和中曝光帧分别转换到Lab颜色空间,分别获得中曝光帧对应的Lab颜色空间以及短曝光帧对应的Lab颜色空间,随后根据中曝光帧对应的Lab颜色空间以及短曝光帧对应的Lab颜色空间,生成第一Lab颜色空间。

第一Lab颜色空间用于对待校正RGB图像对应的Lab颜色空间进行色彩校正或者色彩恢复。

以下结合图3描述生成第一Lab颜色空间的过程。

可选地,作为一个实施例,步骤220的具体实现可参考图3示出的步骤。如图3所示,确定第一Lab颜色空间包括以下步骤:

步骤220-1,基于第一色彩参数对所述中曝光帧进行颜色空间转换,获得所述中曝光帧对应的Lab颜色空间,其中,所述第一色彩参数是所述中曝光帧对应的色彩参数。

步骤220-2,基于第二色彩参数对所述短曝光帧进行颜色空间转换,获得所述短曝光帧对应的Lab颜色空间,其中,所述第二色彩参数是所述短曝光帧对应的色彩参数。

步骤220-3,将所述中曝光帧对应的Lab颜色空间和所述短曝光帧对应的Lab颜色空间进行融合,得到所述第一Lab颜色空间。

可选地,第一色彩参数包括以下参数中的一项或多项:awb_n、gamma_n、ccm_n、blc_n。第一色彩参数是指senor在输出中曝光帧时的色彩参数。

可选地,第二色彩参数包括以下参数中的一项或多项:awb_s、gamma_s、ccm_s、blc_s。第二色彩参数是指senor在输出短曝光帧时的色彩参数。

示例性地,采用中曝光帧和短曝光帧各自对应的色彩参数,分别将中曝光帧和短曝光帧转换到Lab颜色空间,并基于得到的中曝光帧的Lab颜色空间和短曝光帧的Lab颜色空间进行融合处理(merged),得到第一Lab颜色空间。第一Lab颜色空间也可以称作融合后的Lab颜色空间。

可以理解,各个图像帧对应的色彩参数可以是从图形处理器或图像信号处理器(比如ISP)自动获取的。比如,针对每个图像帧,ISP可输出相应的色彩参数。可选地,作为一个实施例,步骤220-3,包括:

基于第一融合权重,对所述中曝光帧对应的Lab颜色空间和所述短曝光帧对应的Lab颜色空间进行融合;

其中,所述第一融合权重是基于第一亮度分量确定的,所述第一亮度分量是所述中曝光帧对应的Lab颜色空间的亮度分量。第一亮度分量即中曝光帧转换到Lab颜色空间后各个像素点对应的L值。

在一种可能的实现方式中,第一融合权重的取值取决于中曝光帧对应的Lab颜色空间的亮度分量L值。图4示出了第一融合权重与L的关系图。如图4所示,横坐标为L,纵坐标表示W1。若L取值越大,那么W1越小;若L取值越小,那么W1越大。

示例性地,第一Lab颜色空间满足下式:

Lab_merged=Lab_N*W1+Lab_S*(1-W1);

其中,Lab_merged表示所述第一Lab颜色空间,W1表示所述第一融合权重,Lab_N表示中曝光帧对应的Lab颜色空间,Lab_S表示短曝光帧对应的Lab颜色空间。

应理解,上述关于第一LAB颜色空间的公式仅是示例,本申请实施例不限于此。

还应理解,上述是以第一融合权重的取值取决于中曝光帧对应的Lab颜色空间的亮度分量L值为例进行描述,本申请实施例并不限于此。比如,可选地,第一融合权重也可以参考Raw域的权重,比如,第一融合权重可以是中曝光帧的权重值在RAW域的权重值,即在对中曝光帧、短曝光帧进行多帧HDR融合时中曝光帧对应的权重值。

需要说明的是,上述第一LAB颜色空间进行色彩校正的本质在于:可针对亮区使用短曝光帧原始的颜色,使得校正后图像的亮区能够达到恢复原始色彩的目的。

步骤230,基于多曝光帧生成待校正的RGB图像。

应理解,本申请实施例对步骤230,与前述步骤210和步骤220的发生时间先后顺序不作限定。示例性地,步骤230可与前述步骤(包括步骤210和步骤220)同时执行。

本申请实施例对基于多曝光帧生成待校正的RGB图像的具体方式不作限定。具体可取决于获得的多曝光帧包括的图像帧。

示例性地,当多曝光帧包括长曝光帧、中曝光帧以及短曝光帧时,基于多长曝光帧、中曝光帧以及短曝光帧,生成待校正的RGB图像。

示例性地,当多曝光帧包括长曝光帧、中曝光帧、短曝光帧以及超短曝光帧时,基于多长曝光帧、中曝光帧、短曝光帧以及超短曝光帧,生成待校正的RGB图像。

应理解,本申请实施例对基于多曝光帧生成待校正的RGB图像的具体融合算法不作具体限定。

可选地,作为一个实施例,步骤230包括:

对长曝光帧、中曝光帧以及短曝光帧进行多帧融合处理,得到多帧融合图像;

对多帧融合图像进行色调映射处理,得到所述待校正的RGB图像。所述待校正的RGB图像即经过色调映射处理后得到的图像。

示例性地,HDR多曝光帧融合可通过以下公式实现:

hdr(i,j)=N(i,j)*weight(N(i,j))+S(i,j)*expo_ratio*(1-weight(N(i,j)))

其中,hdr(i,j)表示多帧融合图像,weight是根据中曝光帧的亮度设置的融合权重;其中,亮度越低,权重越大;亮度越高,权重越小;(暗处融合时用N帧,亮处融合时用短帧),expo_ratio是中曝光帧和短曝光帧的曝光量比值;

比如,expo_ratio=(expoTime_n*iso_n)/(expoTime_s*iso_s);

expoTime_n*iso_n表示中曝光帧的曝光量,expoTime_s*iso_s表示短曝光帧的曝光量。

本申请实施例对色调映射处理的具体方式不作限定。示例性地,色调映射处理可通过ISP中的色调映射模块(tone mapping)实现。色调映射模块用于根据当前的场景推算出场景的平均亮度,然后根据该平均亮度选取一个合适的亮度域,再将整个场景映射到该亮度域得到正确的结果。色调映射模块包括全局色调映射(global tone mapping)和局部色调映射(local tone mapping)。

需要说明的是,色调映射模块用于执行色调映射算法。在实际拍摄过程中,色调映射算法是可调的。比如,本次拍摄时手机采用的色调映射算法1进行映射,下一次拍摄时手机采用的是色调映射算法2进行图像处理,不论色调映射算法如何变化,本申请实施例的图像处理算法都是适用的,即第一Lab颜色空间都可以对色调映射处理后的RGB图像对应的Lab颜色空间(即第二Lab颜色空间)进行色彩校正。

可选地,本申请实施例还可对多帧融合图像或色调映射处理后的图像进行其他图像处理,比如,降噪处理等。

示例性地,可对多帧融合图像去坏点处理,空域降噪处理,时域降噪处理等,以进一步提高图像质量。关于去坏点处理,空域降噪处理,时域降噪处理的具体方式可参考当前的图像处理技术,此处不再赘述。

步骤240,对所述待校正的RGB图像进行颜色空间转换处理,获得第二Lab颜色空间。第二Lab颜色空间用于表征待校正RGB图像转换到Lab颜色空间时的颜色空间。

颜色空间转换处理可以理解为将RGB图像转到Lab颜色空间,或者说从RGB域转换到Lab域,具体可以参考前文3处介绍的Raw域转换到Lab域的过程。这是因为,为了便于在Lab颜色空间下实现色彩恢复,需要先将待校正的RGB图像也转到Lab颜色空间中。本申请实施例对颜色空间转换处理的具体方式不作限定。

可选地,作为一个实施例,步骤240包括:

基于第一色彩参数,将所述待校正的RGB图像从RAW域转换到Lab域,得到所述第二Lab颜色空间,其中,所述第一色彩参数是所述中曝光帧对应的色彩参数。

示例性地,需要采用中曝光帧对应的色彩参数,即第一色彩参数,将待校正的RGB图像从RAW域转换到Lab域,以便得到待校正的RGB图像在Lab颜色空间下的表征形式。

需要说明的是,本申请实施例主要是为了校正亮区的颜色,使得亮区恢复原始色彩。因此在将所述待校正的RGB图像从RAW域转换到Lab域时,使用第一曝光帧(中曝光帧)对应的色彩参数即可。此处使用中曝光帧对应的色彩参数能保证暗区的颜色与中曝光帧的颜色偏差不是很大。

可选地,第一色彩参数包括awb_n、gamma_n、ccm_n、blc_n。

步骤250,利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正,获得第三Lab颜色空间。第三Lab颜色空间用于表征校正后得到的Lab颜色空间。

采用第一Lab颜色空间对第二Lab颜色空间进行校正的原因在于:第一Lab颜色空间是通过中曝光帧对应的Lab颜色空间和短曝光帧对应的Lab颜色空间进行融合得到的,且二者融合的本质在于:针对亮区采用短曝光帧,针对暗区采用中曝光帧,而短曝光帧包含了更多的原始颜色信息,即短曝光帧更接近真实色彩,因此基于得到的第一Lab颜色空间可以很好得对第二Lab颜色空间进行校正,从而尽可能得恢复真实场景的色彩。

可选地,作为一个实施例,步骤250包括:

基于第二融合权重,利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正,获得第三Lab颜色空间;其中,所述第二融合权重是基于所述第一Lab颜色空间和所述第二Lab颜色空间的空间距离确定的。

或者说,对所述第一Lab颜色空间与所述第二Lab颜色空间进行融合(fusion)处理,得到第三Lab颜色空间。第三Lab颜色空间是经过色彩校正或色彩恢复后得到的Lab颜色空间。

可选地,第二融合权重满足下式:

W2=-K*d+b;

其中,W2表示所述第二融合权重;K和b为可调节的常数系数;d表示所述第一Lab颜色空间和所述第二Lab颜色空间的空间距离(或者说空间欧式距离),

其中,Labmerged(a)表示所述第一Lab颜色空间的a分量,Labmerged(b)表示所述第一Lab颜色空间的b分量,Lab_HDR(a)表示所述第二Lab颜色空间的a分量,Lab_HDR(b)表示所述第二Lab颜色空间的b分量。

示例性地,第一Lab颜色空间和第二Lab颜色空间的空间距离越远,即d的取值越大,W2的值越大;第一Lab颜色空间和第二Lab颜色空间的空间距离越近,即d的取值越小,W2的值越小。也就是说,二者空间距离越大,越需要使用第一Lab颜色空间对第二Lab颜色空间进行校正,因此W2的值会越大。

不论是否存在鬼影,本申请实施例均可以进行色彩恢复。在一些场景下可能会存在运动的拍摄物体,由于是基于连续曝光的多帧图像进行融合的,对于移动的拍摄物体,多曝光帧融合会带来鬼影问题,因此在采用本申请实施例的图像处理方法进行色彩校正时还需考虑鬼影区域。

可选地,作为一个实施例,步骤250包括:

在利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正时,对鬼影区域进行剔除处理;

其中,所述鬼影区域是基于多帧融合图像确定的,所述多帧融合图像对所述多曝光帧进行多帧融合处理得到的。

比如,鬼影区域可能既不来自于中曝光帧,也不来自于短曝光帧,并非是原始的像素点。由于在进行多帧HDR融合时,对于鬼影区域会进行空洞填充等特殊处理,因此不需要对鬼影区域进行色彩恢复,即在利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正时,可排除或剔除鬼影区域对应的像素点。排除或剔除鬼影区域是指对鬼影区域对应的像素值不作色彩恢复处理。

本申请实施例对基于多帧融合图像如何获得鬼影区域的具体方式不作限定。示例性地,鬼影区域的mask可通过选定参考帧,并逐像素计算其他帧和参考帧的差异得到。

比如,可选定中曝光帧帧为参考帧,参考帧上某个位置的像素值为100,然后可以通过曝光比(曝光比在多曝光出帧时已确定下来)计算得到短曝光帧在该位置的理论像素值,假设曝光比N/S为2,那么理论上短曝光帧在同一位置的像素值应为50。如果短曝光帧的实际像素值与50相比相差太多,差值超过一定的浮动区间(实际应用中会允许有一定上下浮动区间),此时可认为该像素点属于鬼影区域。

示例性地,所述第三Lab颜色空间满足下式:

Lab_Fusion=W2*Labmerged*(1-ghostmask)+(1-W2)*Lab_HDR*ghostmask

其中,Lab_Fusion表示所述第三Lab颜色空间,W2表示第二融合权重,Labmerged表示所述第一Lab颜色空间,Lab_HDR表示所述第二Lab颜色空间,ghostmask表示所述鬼影区域。

步骤260,将所述第三Lab颜色空间进行RGB转换处理,输出校正后的RGB图像。

在获得校正后的Lab颜色空间后,可将校正后的Lab颜色空间转回到RGB域,以输出色彩校正后的HDR RGB图像。

本申请实施例对从Lab颜色空间转换到RGB域的具体方式不作限定。具体可以参考前文4中示出的Lab域转换到RGB域的过程。

在本申请实施例中,通过获取多曝光帧,所述多曝光帧至少包括长曝光帧、中曝光帧、短曝光帧,随后将短曝光帧和中曝光帧分别转换到Lab颜色空间,并利用短曝光帧对应的Lab颜色空间以及中曝光帧对应的Lab颜色空间进行融合,获得第一Lab颜色空间;随后利用第一Lab颜色空间对第二Lab颜色空间进行色彩校正,获得第三Lab颜色空间,第二Lab颜色空间是待校正的RGB图像经过颜色空间转换获得的;最终将第三Lab颜色空间再转回到RGB域,输出校正后的RGB图像。本申请实施例基于得到的第一Lab颜色空间可以很好得对第二Lab颜色空间进行校正,从而尽可能得恢复真实场景的色彩,提高照片或视频的色彩还原度,有助于还原真实场景下的原始色彩,提升图像的视觉效果,能够提升用户的拍摄体验。

以下结合图5说明本申请实施例的图像处理方法。

图5示出了本申请实施例的一个算法结构示例图。如图5所示,假设接收到拍照指令或录像指令,sensor输出多曝光帧,分别表示为raw L(对应长曝光帧)、raw N(对应中曝光帧)、raw S(对应短曝光帧)。随后获取raw S对应的色彩参数awb_s、gamma_s、ccm_s、blc_s,并利用awb_s、gamma_s、ccm_s、blc_s将raw S转换到Lab S;获取raw N对应的色彩参数awb_n、gamma_n、ccm_n、blc_n,并利用awb_n、gamma_n、ccm_n、blc_n将raw N转换到Lab N。基于Lab S和Lab N进行融合,得到Lab merged(对应第一LAB颜色空间)。

另外,对raw L、raw N、raw S进行多帧融合处理,获得HDR raw;随后对HDR raw进行色调映射处理,并利用awb_n、gamma_n、ccm_n、blc_n对色彩映射处理后的图像进行LAB域转换,获得Lab_HDR(对应第二Lab颜色空间)。接着,利用前面得到的Lab merged对Lab_HDR进行校正,得到校正后的Lab_HDR。最后将Lab_HDR再转回到RGB域,输出色彩校正后的HDRRGB图像。至此,得到色彩恢复后的HDR RGB图像。

可选地,在获得HDR raw后,还可以生成鬼影区域。在利用前面得到的Lab merged对Lab_HDR进行校正时,可剔除鬼影区域,不对鬼影区域进行色彩恢复。

应理解,图5中的示例仅是便于本领域技术人员理解本申请实施例的算法流程,并不对本申请实施例构成限定。

需要说明的是,本申请实施例的图像处理方法适用于拍照场景,或者,录制视频的场景。比如,HDR拍照场景。又比如,HDR录制视频场景。

可以理解,对于录制视频的场景,对图像帧进行色彩校正的过程也可以适用本申请实施例的图像处理方法。换种表述,组成视频的各个图像帧的色彩校正的过程,可以参考本申请实施例的图像处理方法。比如,基于多张校正后的RGB图像可生成录制视频。

上文结合图1至图5,详细描述了本申请实施例提供的图像处理方法。下面将结合图6和图7描述本申请的装置实施例。应理解,本申请实施例的装置可以执行前述本申请实施例的图像处理方法,即以下各种产品的具体工作过程,可以参考前述方法实施例中的对应过程。

以下结合图6和图7描述本申请实施例应用的软件系统和硬件架构。

图6是本申请实施例应用的架构(包括软件系统和部分硬件)的一个示意图。如图6所示,应用架构分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,应用架构可以分为五层,从上至下分别为应用层、应用框架层、硬件抽象层HAL、驱动层(driver)以及硬件层。

如图6所示,应用层包括相机和图库。可以理解,图6中示出的是部分应用程序,事实上应用层还可以包括其他应用程序,本申请对此不作限定。比如应用层还包括信息、闹钟、天气、秒表、指南针、计时器、手电筒、日历、支付宝等应用程序。

如图6所示,应用框架层包括相机访问接口。相机访问接口中包括相机管理和相机设备。硬件抽象层包括相机硬件抽象层和相机算法库。其中,相机硬件抽象层中包括多个相机设备。相机算法库中包括后处理算法模块和色彩恢复模块。色彩恢复模块用于执行本申请实施例的图像处理方法。示例性地,色彩恢复模块用于利用短曝光帧对应的Lab颜色空间以及中曝光帧对应的Lab颜色空间进行融合,获得第一Lab颜色空间;随后利用第一Lab颜色空间对第二Lab颜色空间进行色彩校正,获得第三Lab颜色空间,第二Lab颜色空间是待校正的RGB图像经过颜色空间转换获得的;最终将第三Lab颜色空间再转回到RGB域,输出校正后的RGB图像。

驱动层用于驱动硬件资源。驱动层中可以包括多个驱动模块。如图6所示,驱动层包括相机设备驱动、数字信号处理器驱动和图形处理器驱动等。

硬件层包括传感器、图像信号处理器、数字信号处理器和图形处理器。其中,传感器包括多个传感器、TOF摄像头以及多光谱传感器。图像信号处理器中包括ISP第一模块、ISP第二模块和ISP第三模块。

举例来说,用户可以点击相机应用程序。在用户点击相机进行拍照时,拍照指令可以通过相机访问接口下发到相机硬件抽象层。相机硬件抽象层调用相机设备驱动,并调用相机算法库。相机硬件抽象层将拍照参数(比如场景参数)下发到相机设备驱动。相机设备驱动基于相机硬件抽象层下发的拍照参数发送到硬件层,比如,将sensor出图方式发送给传感器,将各个ISP模块的参数配置发送给图像信号处理器。传感器基于sensor出图方式进行出图。图像信号处理器基于各个ISP模块的参数配置进行相应的处理。相机算法库还用于向驱动层中的数字信号处理器驱动下发数字信号,以便数字信号处理器驱动调用硬件层中的数字信号处理器进行数字信号处理。数字信号处理器可以将处理好的数字信号通过数字信号处理器驱动返回到相机算法库。相机算法库还用于向驱动层中的图形信号处理器驱动下发数字信号,以便图形信号处理器驱动调用硬件层中的图形处理器进行数字信号处理。图形处理器可以将处理好的图形数据通过图形处理器驱动返回到相机算法库。相机算法库中的色彩恢复模块可从图形处理器驱动获取到图像帧对应的色彩参数(比如前文提到的第一色彩参数,第二色彩参数),并基于色彩参数进行相关的校准处理。色彩恢复模块将校正后的图像发送到相机硬件抽象层。相机硬件抽象层将校正后的图像通过框架层再返回到相机。

色彩恢复模块用于执行本申请实施例的图像处理方法。示例性地,色彩恢复模块用于基于第一色彩参数对所述中曝光帧进行颜色空间转换,获得所述中曝光帧对应的Lab颜色空间,其中,所述第一色彩参数是所述中曝光帧对应的色彩参数;基于第二色彩参数对所述短曝光帧进行颜色空间转换,获得所述短曝光帧对应的Lab颜色空间,其中,所述第二色彩参数是所述短曝光帧对应的色彩参数;将所述中曝光帧对应的Lab颜色空间和所述短曝光帧对应的Lab颜色空间进行融合,得到所述第一Lab颜色空间。

示例性地,色彩恢复模块用于对所述待校正的RGB图像进行颜色空间转换处理,获得第二Lab颜色空间;利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正,获得第三Lab颜色空间。

另外,图像信号处理器输出的图像可以发送给相机设备驱动。相机设备驱动可以将图像信号处理器输出的图像发送给相机硬件抽象层。相机硬件抽象层可以将图像送入后处理算法模块作进一步处理,也可以将图像送入相机访问接口。相机访问接口可以将相机硬件抽象层返回的图像发送至相机。

上文详细描述了本申请实施例应用的软件系统。下面结合图7描述电子设备1000的硬件系统。

图7示出了一种适用于本申请的电子设备1000的结构示意图。

电子设备1000可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。

需要说明的是,图7所示的结构并不构成对电子设备1000的具体限定。在本申请另一些实施例中,电子设备1000可以包括比图7所示的部件更多或更少的部件,或者,电子设备1000可以包括图7所示的部件中某些部件的组合,或者,电子设备1000可以包括图7所示的部件中某些部件的子部件。比如,图7所示的接近光传感器180G可以是可选的。图7示的部件可以以硬件、软件、或软件和硬件的组合实现。

处理器110可以包括一个或多个处理单元。例如,处理器110可以包括以下处理单元中的至少一个:应用处理器(application processor,AP)、调制解调处理器、图形处理器(graphics processing unit,GPU)、图像信号处理器(image signal processor,ISP)、控制器、视频编解码器、数字信号处理器(digital signal processor,DSP)、基带处理器、神经网络处理器(neural-network processing unit,NPU)。其中,不同的处理单元可以是独立的器件,也可以是集成的器件。

控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。

处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。

在一些实施例中,处理器110用于获取多曝光帧,所述多曝光帧至少包括第一曝光帧、第二曝光帧、第三曝光帧,其中,第一曝光帧的曝光时长大于第二曝光帧的曝光时长,第二曝光帧的曝光时长大于第三曝光帧的曝光时长;基于所述第三曝光帧和所述第二曝光帧,确定第一Lab颜色空间;基于所述多曝光帧,生成待校正的RGB图像;对所述待校正的RGB图像进行颜色空间转换处理,获得第二Lab颜色空间;利用所述第一Lab颜色空间对所述第二Lab颜色空间进行校正,获得第三Lab颜色空间;将所述第三Lab颜色空间进行RGB转换处理,输出校正后的RGB图像。

在一些实施例中,处理器110可以包括一个或多个接口。例如,处理器110可以包括以下接口中的至少一个:内部集成电路(inter-integrated circuit,I2C)接口、内部集成电路音频(inter-integrated circuit sound,I2S)接口、脉冲编码调制(pulse codemodulation,PCM)接口、通用异步接收传输器(universal asynchronous receiver/transmitter,UART)接口、移动产业处理器接口(mobile industry processor interface,MIPI)、通用输入输出(general-purpose input/output,GPIO)接口、SIM接口、USB接口。

图7所示的各模块间的连接关系只是示意性说明,并不构成对电子设备1000的各模块间的连接关系的限定。可选地,电子设备1000的各模块也可以采用上述实施例中多种连接方式的组合。

充电管理模块140用于从充电器接收电力。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的电流。在一些无线充电的实施例中,充电管理模块140可以通过电子设备1000的无线充电线圈接收电磁波(电流路径如虚线所示)。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备1000供电。

电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量、电池循环次数和电池健康状态(例如,漏电、阻抗)等参数。可选地,电源管理模块141可以设置于处理器110中,或者,电源管理模块141和充电管理模块140可以设置于同一个器件中。

电子设备1000的无线通信功能可以通过天线1、天线2、移动通信模块150、无线通信模块160、调制解调处理器以及基带处理器等器件实现。

电子设备1000可以通过GPU、显示屏194以及应用处理器实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。

显示屏194可以用于显示图像或视频。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD)、有机发光二极管(organic light-emitting diode,OLED)、有源矩阵有机发光二极体(active-matrix organic light-emitting diode,AMOLED)、柔性发光二极管(flex light-emitting diode,FLED)、迷你发光二极管(mini light-emitting diode,Mini LED)、微型发光二极管(micro light-emitting diode,Micro LED)、微型OLED(Micro OLED)或量子点发光二极管(quantum dotlight emitting diodes,QLED)。在一些实施例中,电子设备1000可以包括1个或N个显示屏194,N为大于1的正整数。

电子设备1000可以通过ISP、摄像头193、视频编解码器、GPU、显示屏194以及应用处理器等实现拍摄功能。

ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP可以对图像的噪点、亮度和色彩进行算法优化,ISP还可以优化拍摄场景的曝光和色温等参数。在一些实施例中,ISP可以设置在摄像头193中。

摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的红绿蓝(red green blue,RGB),YUV等格式的图像信号。在一些实施例中,电子设备1000可以包括1个或N个摄像头193,N为大于1的正整数。

数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备1000在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。

视频编解码器用于对数字视频压缩或解压缩。电子设备1000可以支持一种或多种视频编解码器。这样,电子设备1000可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1、MPEG2、MPEG3和MPEG4。

NPU是一种借鉴生物神经网络结构的处理器,例如借鉴人脑神经元之间传递模式对输入信息快速处理,还可以不断地自学习。通过NPU可以实现电子设备1000的智能认知等功能,例如:图像识别、人脸识别、语音识别和文本理解。

电子设备1000可以通过音频模块170、扬声器170A、受话器170B、麦克风170C、耳机接口170D以及应用处理器等实现音频功能,例如,音乐播放和录音。

距离传感器180F用于测量距离。电子设备1000可以通过红外或激光测量距离。在一些实施例中,例如在拍摄场景中,电子设备1000可以利用距离传感器180F测距以实现快速对焦。

环境光传感器180L用于感知环境光亮度。电子设备1000可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备1000是否在口袋里,以防误触。

指纹传感器180H用于采集指纹。电子设备1000可以利用采集的指纹特性实现解锁、访问应用锁、拍照和接听来电等功能。

触摸传感器180K,也称为触控器件。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,触摸屏也称为触控屏。触摸传感器180K用于检测作用于其上或其附近的触摸操作。触摸传感器180K可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备1000的表面,并且与显示屏194设置于不同的位置。

按键190包括开机键和音量键。按键190可以是机械按键,也可以是触摸式按键。电子设备1000可以接收按键输入信号,实现于案件输入信号相关的功能。

马达191可以产生振动。马达191可以用于来电提示,也可以用于触摸反馈。马达191可以对作用于不同应用程序的触摸操作产生不同的振动反馈效果。对于作用于显示屏194的不同区域的触摸操作,马达191也可产生不同的振动反馈效果。不同的应用场景(例如,时间提醒、接收信息、闹钟和游戏)可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。

可以理解,本申请实施例的图像处理方法可以应用于图7中所示的电子设备中,具体的实现步骤可以参考前文方法实施例的介绍,此处不再赘述。

本申请还提供了一种计算机程序产品,该计算机程序产品被处理器执行时实现本申请中任一方法实施例所述的方法。

该计算机程序产品可以存储在存储器中,经过预处理、编译、汇编和链接等处理过程最终被转换为能够被处理器执行的可执行目标文件。

本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被计算机执行时实现本申请中任一方法实施例所述的方法。该计算机程序可以是高级语言程序,也可以是可执行目标程序。

该计算机可读存储介质可以是易失性存储器或非易失性存储器,或者,可以同时包括易失性存储器和非易失性存储器。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic RAM,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rateSDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(directrambus RAM,DR RAM)。

本领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和设备的具体工作过程以及产生的技术效果,可以参考前述方法实施例中对应的过程和技术效果,在此不再赘述。

在本申请所提供的几个实施例中,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的方法实施例的一些特征可以忽略,或不执行。以上所描述的装置实施例仅仅是示意性的,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统。另外,各单元之间的耦合或各个组件之间的耦合可以是直接耦合,也可以是间接耦合,上述耦合包括电的、机械的或其它形式的连接。

应理解,在本申请的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请的实施例的实施过程构成任何限定。

另外,本文中术语“系统”和“网络”在本文中常被可互换使用。本文中的术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。

本申请实施例中出现的术语(或者说编号)“第一”、“第二”、…等,仅用于描述目的,即只是为了区分不同的对象,比如,不同的“色彩参数”等,并不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、…等的特征可以明示或者隐含地包括一个或者更多个特征。在本申请实施例的描述中,“至少一个(项)”是指一个或多个。“多个”的含义是两个或两个以上。“以下至少一个(项)”或其类似表达,是指这些项中的任意组合,包括单个(项)或复数个(项)的任意组合。

例如,本申请实施例中出现的类似于“项目包括如下中至少一种:A,B,以及C”表述的含义,如无特别说明,通常是指该项目可以为如下中任一个:A;B;C;A和B;A和C;B和C;A,B和C;A和A;A,A和A;A,A和B;A,A和C,A,B和B;A,C和C;B和B,B,B和B,B,B和C,C和C;C,C和C,以及其他A,B和C的组合。以上是以A,B和C共3个元素进行举例来说明该项目的可选用条目,当表达为“项目包括如下中至少一种:A,B,……,以及X”时,即表达中具有更多元素时,那么该项目可以适用的条目也可以按照前述规则获得。

总之,以上所述仅为本申请技术方案的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

相关技术
  • 一种图像处理方法、电子设备及存储介质
  • 一种图像处理方法、装置及电子设备
  • 一种图像处理方法、装置及电子设备
  • 一种图像的处理方法、装置及电子设备
  • 一种图像处理方法、装置及电子设备
  • 人脸图像处理方法、直播图像处理方法、装置和电子设备
  • 图像预处理方法和装置、图像处理方法、电子设备及介质
技术分类

06120116484850