掌桥专利:专业的专利平台
掌桥专利
首页

基于时空特征的社交网络深度伪造视频检测方法及系统

文献发布时间:2024-04-18 20:01:23


基于时空特征的社交网络深度伪造视频检测方法及系统

技术领域

本发明涉及深度伪造视频检测领域,具体涉及一种基于时空特征的社交网络深度伪造视频检测方法及系统。

背景技术

现阶段深度伪造视频主要是对视频中的人脸进行篡改替换,以达到伪造身份的目的,伪造的方法主要分两种,一种是基于传统的图形学进行人脸建模,比如FaceSwap开源软件,通过3D模型的拟合和高斯牛顿优化来实现人脸的替换,以及现在的基于深度学习模型的伪造。检测方法可分为:基于传统图像取证检测方法、基于单个帧的深度学习检测方法和基于帧间特征不一致性的检测方法。

基于传统图像取证检测方法大多通过检测图像噪声,对图像特征进行统计分析实现,可以检测图像局部噪声方差来判断图像是否被篡改,通过对图像分块分析压缩痕迹来检测和定位篡改区域。由于deepfake生成的视频人脸和帧的其余部分之间的接缝融合会产生边界效应,通常通过模糊这些边界像素的颜色强度来减少边界效应,这会导致交换的人脸在视觉上与场景的其余部分不一致。

基于单个帧的深度学习检测方法,首先使用人脸检测方法在视频中截取人脸图像,使用深度神经网络提取图像的特征,并对特征进行分类。人脸检测算法中可以采用YOLO、MTCNN、BlazeFace人脸检测器从视频帧中提取人脸区域。此方法还可以结合视频中人的生理特征,首先识别两个眼睛的颜色差异特征,再计算人眼和牙齿的纹理特征,结合这两个特征来鉴别伪造视频。利用心率节奏来鉴别伪造视频,由于人的血液流动会导致脸部颜色发生周期性变化,而伪造视频会破坏这种周期性变化规律,首先采用运动放大的时空表示方法(MMSTR)获取心率特征,然后训练双时空注意网络模型,通过检测图片视频中人的心率异常来鉴别伪造视频。伪造视频通常对人的嘴唇和牙齿处理的比较粗糙,不能完善其细节特征。

基于帧间特征不一致性的检测方法,连续帧作为输入,使用CNN进行特征提取,使用LSTM学习特征序列对模型进行训练,LSTM网络捕获视频中的光流特征,光流特征代表了相邻帧中每个像素运动情况,由于基于单个帧的伪造视频像素运动情况不一致,所以无法确保检测精度。

发明内容

本发明的目的在于提供一种基于时空特征的社交网络深度伪造视频检测方法及系统,以克服压缩技术对深度伪造视频检测干扰的问题,以及普通模型对细粒度伪造检测能力弱的问题。

一种基于时空特征的社交网络深度伪造视频检测方法,包括以下步骤:

S1,提取待识别视频中的人脸序列,将提取的人脸序列经过自适应频域感知机制进行滤波;

S2,采用以EfficientNet-B4为主干网络的CNN模型从滤波后的人脸序列中提取伪造特征图;

S3,对提取的伪造特征图分别进行时序特征提取和空间特征提取,对提取的时序特征进行时序分类,对提取的空间特征进行空间分类,对时序分类结果和空间分类结果进行融合得到视频最终检测结果,根据视频最终检测结果进行真伪划分。

优选的,使用MTCNN模型提取待识别视频中的人脸序列,人脸序列包括人脸范围和人脸关键点。

优选的,将获取的人脸序列图像通过离散傅里叶变换,然后将经过离散傅里叶变换的图像从空间域转换到频率域,将频率域中心移动到图像的中心,用截至频率参数D0生成高斯低通滤波核,将频率域图像和高斯滤波核进行卷积,将频率域中心移回原点,完成滤波,将滤波后的频率域图像通过离散傅里叶逆变换,转换为空间域图像,得到过滤高频后的图像。

优选的,使用渐进式注意力机制,增强CNN模型对细粒度伪造的敏感程度和对不明显伪造区域的注意力。

优选的,对空间分类结果和时序分类结果进行融合,得到最终的视频预测结果,视频最终预测为假的概率p使用如下公式计算:

p=μO

其中O

优选的,生成伪造注意力图FAM,将224×224大小的人脸图像经过Xception网络或者EfficientNet-B4网络提取到伪造特征,经过全连接层得到输出概率值O

优选的,将伪造注意力图FAM中的坐标按照注意力大小,选取第一个坐标即为伪造最敏感的像素坐标;设图像大小为H×W,使用一个随机大小的矩形块遮挡最敏感的坐标,矩形块大小为H

一种基于时空特征的社交网络深度伪造视频检测系统,包括滤波模块,特征提取模块和检测模块;

滤波模块,用于提取待识别视频中的人脸序列,将提取的人脸序列经过自适应频域感知机制进行滤波;

特征提取模块,采用以EfficientNet-B4为主干网络的CNN模型从滤波后的人脸序列中提取伪造特征图;

检测模块,对提取的伪造特征图分别进行时序特征提取和空间特征提取,对提取的时序特征进行时序分类,对提取的空间特征进行空间分类,对时序分类结果和空间分类结果进行融合得到视频最终检测结果,根据视频最终检测结果进行真伪划分。

优选的,使用MTCNN模型提取待识别视频中的人脸序列,人脸序列包括人脸范围和人脸关键点。

优选的,将获取的人脸序列图像通过离散傅里叶变换,然后将经过离散傅里叶变换的图像从空间域转换到频率域,将频率域中心移动到图像的中心,用截至频率参数D0生成高斯低通滤波核,将频率域图像和高斯滤波核进行卷积,将频率域中心移回原点,完成滤波,将滤波后的频率域图像通过离散傅里叶逆变换,转换为空间域图像,得到过滤高频后的图像。

与现有技术相比,本发明具有以下有益的技术效果:

本发明公开了一种基于时空特征的社交网络深度伪造视频检测方法及系统,通过提取待识别视频中的人脸序列,将提取的人脸序列经过自适应频域感知机制进行滤波以去除深度伪造视频中的压缩噪声。从空域与时序角度探索视频的深度伪造特征的局部与全局自相关性。具体的,采用融合渐进式注意力机制的EfficientNet-B4提取细粒度的空域局部深度伪造特征自相关性。结合LSTM时序网络提取深度伪造特征的全局自相关性。依据空域与时序自相关性判别结果获取视频真伪。本发明采用自适应频域感知滤波器去除深度伪造检测中压缩操作的干扰性,减少了社交网络中视频压缩技术对深度伪造视频检测造成的影响,增强提取的深度伪造特征,解决了压缩深度伪造视频检测率低、鲁棒性差、泛化能力弱的问题。

优选的,融合了渐进式注意力机制,渐进式擦除最可疑的伪造区域,迫使模型提取其他区域微小的伪造特征,提升了模型对压缩伪造视频中细粒度伪造痕迹的检测能力。同时优化了模型的损失函数,在模型训练过程中,使用均方误差来衡量伪造注意力图和真实伪造区域之间的距离作为损失,使模型提取的伪造特征更准确。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例中基于时空特征的社交网络深度伪造视频检测方法流程图。

图2为本发明实施例中自适应频域感知模块结构图。

图3为本发明实施例中自适应频域滤波过程示意图。

图4为本发明实施例中渐进式注意力机制原理图。

图5为本发明实施例中压缩噪声对伪造特征的干扰示例图。

具体实施方式

为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。

需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

如图1所示,本发明提供一种基于时空特征的社交网络深度伪造视频检测方法,具体包括以下步骤:

S1,提取待识别视频中的人脸序列,将提取的人脸序列经过自适应频域感知机制进行滤波;

S2,采用以EfficientNet-B4为主干网络的CNN模型从滤波后的人脸序列中提取伪造特征图;采用伪造注意力图FAM对CNN模型进行渐进式注意力训练,以扩大模型对伪造的注意力范围,提升模型对细粒度伪造痕迹的检测能力;

S3,对提取的伪造特征图分别进行时序特征提取和空间特征提取,对提取的时序特征进行时序分类,对提取的空间特征进行空间分类,对时序分类结果和空间分类结果进行融合得到视频最终检测结果,根据视频最终检测结果进行真伪划分。

如图1所示,本发明公开了一种基于时空特征的社交网络深度伪造视频检测方法,首先使用MTCNN人脸检测模型提取待识别视频中的人脸序列,然后将提取的人脸序列经过自适应频域感知机制进行滤波,将滤波后的人脸序列输入以EfficientNet-B4为主干网络的CNN模型中提取伪造特征图;使用伪造注意力图FAM对模型进行渐进式注意力训练,以扩大模型对伪造的注意力范围,提升模型对细粒度伪造痕迹的检测能力。然后将提取的伪造特征图输入LSTM,对提取的伪造特征图分别进行时序特征提取和空间特征提取,对提取的时序特征进行时序分类,对提取的空间特征进行空间分类,对时序分类结果和空间分类结果进行融合得到视频最终检测结果,根据视频最终检测结果进行真伪划分。

本实施例以python.3.8实现完成,以pytorch1.12为主构建神经网络模型预测模型。如图1所示,本实施例的方法过程如下。

步骤1:使用MTCNN模型提取待识别视频中的人脸序列,人脸序列包括人脸范围和人脸关键点。

步骤1.1:对待识别视频中的图片进行不同级别的缩放处理,形成多尺度图像金字塔;

步骤1.2:将图像金字塔经过P-Net(Proposal Network)全卷积网络提取特征后,通过人脸分类器判断该区域是否有人脸,并得到包含人脸的候选区域,人脸分类器是二分类器,对于每个样本,使用交叉熵损失,如下所示:

其中p

步骤1.3:通过一个R-Net(Refine Network)网络对候选区域进一步筛选,相比P-Net网络,该网络多了一层全连接层,筛选过程更加严格,对筛选区域进行边框回归和非最大抑制(Non Maximum Suppression,NMS)进一步减少候选区域个数;边框回归算法中每个边框被定义为一个向量:(边框左上角顶点横坐标,边框左上角顶点纵坐标,边框高度,边框宽度),对于每个候选窗口,预测它与最近的真实边框之间的偏移量。学习目标被描述为一个回归问题,对每个样本使用欧氏距离衡量损失,如下:

其中

步骤1.4:O-Net(Output Network)网络相比R-Net增加了一个卷积层,其输入特征更多,全连接层的维数更大,具有更好的性能,通过O-Net(Output Network)网络对人脸进行判别,人脸区域进行边框回归,最后输出包含人脸区域的左上角坐标和区域长、宽以及人脸的5个标志坐标,5个标志分别是:双眼、鼻尖、左右嘴角。人脸标志定位和边框回归问题类似,定义为一个回归问题,其损失函数如下所示:

其中

步骤2,通过自适应频域感知机制减少人脸图像中的压缩噪声,所采用的自适应频域感知机制模型在Xception和EfficientNet-B4网络基础上添加了自适应高斯低通滤波层,通过训练来学习合适的滤波核参数,降低了压缩噪声对深度伪造特征的干扰性,提升了深度伪造检测器的性能,其模型结构如图2所示,自适应频域感知机制滤波得到的结果如图3所示;

步骤2.1:将获取的人脸序列图像通过离散傅里叶变换,然后将经过离散傅里叶变换的图像从空间域转换到频率域,频率域中心在人脸序列图像的4个角上颜色较浅的部分,越接近频率域中心,频率越低,如图3中②所示;

步骤2.2:将频率域中心移动到图像的中心,方便对高频进行过滤,如图3中③所示;

步骤2.3:用截至频率参数D0生成高斯低通滤波核,将频率域图像和高斯滤波核进行卷积,卷积后频率域图像明显灰度变浅,表明高频得到了有效的过滤,如图3中④所示;

步骤2.4:将频率域中心移回原点,完成滤波,如图3中⑤所示;

步骤2.5:将滤波后的频率域图像通过离散傅里叶逆变换,转换为空间域图像,得到过滤高频后的图像,如图3中⑥所示。

步骤3:使用渐进式注意力机制,增强CNN模型对细粒度伪造的敏感程度和对不明显伪造区域的注意力,流程如图4所示。

步骤3.1:设伪造注意力图FAM,CNN模型在前向传播过程中,输入的每个人脸图像会提取一个2048维的特征向量,再经过全连接层,会得到两个概率值O

步骤3.2:生成伪造注意力图FAM,将224×224大小的人脸图像经过Xception网络或者EfficientNet-B4网络提取到伪造特征,经过全连接层得到输出概率值O

步骤3.3:最大可疑伪造擦除,将伪造注意力图FAM中的坐标按照注意力大小,也就是像素值大小倒序排列,选取第一个坐标即为伪造最敏感的像素坐标。设图像大小为H×W,使用一个随机大小的矩形块遮挡最敏感的坐标,矩形块大小为H

步骤3.4:经过前面的步骤,完成了一次注意力增强,对一个图像重复前面步骤,即可逐步地扩大模型的注意力。

步骤4:使用LSTM时序网络提取时序特征并与空间特征融合,捕获伪造视频在时空上的不一致性,将空间域最终提取的人脸特征序列输入LSTM网络中提取时序特征,每个视频抽取连续的10帧对应的人脸特征。

时序特征提取过程如下:

步骤4.1:通过输入门输入人脸序列,输入门用于控制人脸信息通过当前时刻的输入进入LSTM单元,公式如下:

i

其中h

步骤4.2:通过遗忘门去除时序不相关的特征,将人脸特征向量通过激活函数映射到(0,1)范围内,表示哪些特征信息重要,哪些特征信息需要遗忘。当某些信息在当前时间步不再重要时,遗忘门可以选择性地将其遗忘,从而使网络能够更好地进行长期记忆,捕获有用的时序特征。公式下:

f

其中W

步骤4.3:通过输出门控制当前状态的输出,有选择性地输出信息,使模型能够更加准确地捕获序列数据中的时间依赖关系。公式下:

o

其中W

步骤4.4:通过记忆单元存储当前人脸特征向量和之前人脸特征向量之间的关联信息,并选择性的保留或者遗忘。公式如下:

记忆单元的输出是由当前的人脸特征向量x

h

其中h

步骤4.5:分类结果融合,对空间分类结果和时序分类结果进行融合,得到最终的视频预测结果,视频最终预测为假的概率p使用如下公式计算:

p=μO

其中O

模型优化,优化损失函数和视频伪造概率计算,使得模型对伪造特征的提取更准确,对视频分类结果区分度更大;

首先为了模型能够更准确的预测图像的真假,使用交叉熵损失函数来衡量真实标签和预测值的误差。除此之外,希望模型的伪造注意力图能够接近真实伪造图,使模型对伪造区域的学习更准确,真实伪造图是伪造后的图像和真实图像像素差值,像素差值大小代表了伪造的程度的大小,伪造注意力图中像素大小表示了可疑程度的大小,采用均方误差作为损失函数来衡量真实伪造图和伪造注意力图的差异。每次训练时需要同时加载伪造人脸图像和其对应的真实人脸图像,真实人脸图像减去伪造人脸图像即为真实伪造图,再通过伪造注意力生成算法,生成伪造人脸图像的伪造注意力图。在擦除时与渐进式注意力机制不同,需要对伪造注意力图进行最大伪造擦除而不是对真实人脸图像,将真实伪造图按照同样的方式擦除掉相同的区域。在训练时采用均方误差衡量两幅图的差异作为损失函数。对样本图像i来说,总的损失函数如下面的公式所示,包含了预测结果的交叉熵损失函数和伪造注意图FAM

L

视频预测概率计算方法的优化,首先输入预测帧序列为假的概率数组pred,假人脸阈值t默认取0.5,假人脸图像定义为pred数组中所有预测值大于t对应的人脸图像,真人脸图像定义为pred数组中所有预测值小于1-t对应的人脸图像,如果输入的帧序列预测结果中40%以上都是假人脸图像,视频为假的概率p就是所有假人脸图像的概率平均值,如果输入的帧序列预测结果中80%以上都是真人脸图像,视频为假的概率p就是所有真人脸图像的概率平均值,其他情况下,视频为假的概率p为pred数组平均值。

本发明分析了社交网络中的压缩伪造视频对伪造检测方法的影响,并使用峰值信噪比(PSNR)和结构相似性指数度量(SSIM)衡量了不同压缩率的视频质量,分析了不同压缩率的伪造视频下模型的检测性能。采用以下指标来衡量压缩质量:

(1)峰值信噪比(PSNR),表示信号的最大功率与其噪声功率的比率,通常用于量化有损压缩的图像和视频的重建质量,其定义如下公式:

其中I表示m×n的无噪声单色图像,K为噪声,MAXI是图像的最大可能像素值。当像素使用每个样本8位表示时,MAXI是255。

(2)结构相似性指数度量(SSIM),使用无压缩的原始图像作为参考,测量两个图像的相似性,是一种用来衡量图像或视频感知质量的方法。首先将原始图像和压缩后的图像对齐,然后从两图像中的N个相同位置裁剪出N个块,记为x={x

如下公式表示对比度:

如下公式表示结构信息:

其中C

结构相似性指数(SSIM)定义如下公式所示:

SSIM(x,y)=[l(x,y)]

α、β和γ表示三部分的比重,当α=β=γ=1时,相似性指数化简为如下公式:

随机抽取了100个未压缩的真实视频(Original),5种伪造方式生成的未压缩伪造视频各抽取100个,总共600个未压缩视频,以这600个未压缩视频为基准,测量了其经过两种压缩率压缩后的视频的PSNR和SSIM如下表所示:

c23表示低压缩率,c40表示高压缩率,表中数字为100个视频所测得结果的均值。从表中可以发现,原始视频和伪造视频经过有损压缩之后都会有压缩噪声。对比两种压缩率下的PSNR和SSIM,可以发现压缩率越高,视频质量越低,压缩噪声越明显。

如图5所示,将真实未压缩图像和伪造未压缩图像的差异视为伪造噪声,将真实压缩图像和伪造压缩图像间的差异视为压缩伪造的叠加噪声。对比真实未压缩和真实压缩的图像可以看到,压缩导致图像模糊,给视频中的帧带来了压缩噪声。对比真实未压缩和伪造未压缩的图像可以看到,深度伪造也会导致图像模糊,给视频中的帧带来了伪造噪声。对比伪造噪声和压缩伪造的叠加噪声,发现对于深度伪造压缩视频,其压缩噪声和伪造噪声会混合在一起,干扰伪造检测中伪造特征提取,从而影响伪造检测准确度。

为了减小压缩噪声对特征提取的干扰提出了基于自适应频域感知的深度伪造检测模型,通过自适应频域感知机制减少人脸图像中的压缩噪声,该模型在Xception和EfficientNet-B4网络基础上添加了自适应高斯低通滤波层,通过训练来学习合适的滤波核参数,降低了压缩噪声对深度伪造特征的干扰性,提升了深度伪造检测器的性能,高斯低通滤波器(Gaussian low pass filte,GLPF)其滤波函数如下面公式所示:

其模型结构如图2所示,本模型的滤波层采用自适应高斯低通滤波器主要基于以下两个原因:

(1)压缩噪声主要集中在高频部分,采用频域滤波中的低通滤波器可以有效的去除高频噪声保留低频信息,而高斯低通滤波器可以有效的抑制振铃现象;

(2)压缩会对伪造特征造成破坏,且在过滤压缩噪声的同时会对伪造特征造成二次破坏,因为过滤器会过滤掉部分伪造特征,从而使伪造特征变得不明显。过滤器不能定向去除压缩噪声而保留伪造特征的原因是滤波核的参数是初始化时固定的,无法根据压缩和伪造两种不同的特征来进行调整,所以本模型的自适应高斯低通滤波器,在模型训练过程中动态调整滤波核参数,使模型能够在过滤压缩噪声的同时保留伪造特征,从而减少压缩噪声的干扰,提高模型性能。

本发明的方法解决了压缩噪声干扰伪造特征提取的问题,但模型本身对压缩视频中的细粒度伪造特征提取能力不强。所以提出了基于渐进式注意力机制的时空特征伪造检测,提升对压缩伪造视频中细粒度伪造特征的提取能力,并结合空域和时域信息获取富足深度伪造特征嵌入表示,以提高模型的检测能力。

本发明首先使用渐进式注意力机制来增强模型对细粒度伪造特征提取的能力,然后使用LSTM时序网络提取时序特征并与空间特征融合,捕获伪造视频在时空上的不一致性。模型总体结构如图1所示,空间域的CNN网络基于单帧提取伪造特征,结合LSTM网络提取视频时序特征,最终对真假视频进行分类,构成基于时空特征的伪造检测模型。人脸序列首先经过自适应频域感知机制进行滤波,将滤波后的人脸序列输入以EfficientNet-B4为主干网络的CNN模块中提取伪造特征图,并使用伪造注意力图FAM对模型进行渐进式注意力训练,以扩大模型对伪造的注意力范围,提升模型对细粒度伪造痕迹的检测能力,然后将特征图序列输入LSTM,对序列时序特征进行分类预测。在测试阶段,分别对视频中单个帧进行空间分类,再使用LSTM对帧序列进行时序分类预测,最终对空间分类结果和时序分类结果进行融合,得到最终的视频预测结果。

视频最终预测为假的概率p使用如下公式计算:

p=μO

其中O

本发明的有益效果为:

1)本发明实现了自适应频域感知机制,在普通CNN检测器网络结构中添加了自适应高斯低通滤波层,在提取图像的特征前,过滤图像中的压缩噪声,减小了社交网络中视频压缩技术对伪造视频检测造成的影响,使提取的伪造特征更准确。

2)本发明融合了渐进式注意力机制,渐进式擦除最可疑的伪造区域,迫使模型提取其他区域微小的伪造特征,提升了模型对压缩伪造视频中细粒度伪造痕迹的检测能力。同时优化了模型的损失函数,在模型训练过程中,使用均方误差来衡量伪造注意力图和真实伪造区域之间的距离作为损失,使模型提取的伪造特征更准确。

(3)本发明使用LSTM网络提取视频的时序特征,并结合CNN模型提取的空间域特征,进行基于时空特征的分类。同时改进了视频预测概率的计算方法,提出了多数平均预测算法,使得真假视频预测结果区分度更大。

对本发明方法进行验证;

伪造视频检测问题与二分类问题一致,需要模型对视频的真假给出分类结果,使用两种常见的分类结果衡量指标:AUC和F1值作为评价指标,度量模型的检测能力。

准确度(Accuracy)的衡量需要规定一个真假样本概率的阈值,概率大于该阈值样本被判定为正类,小于该阈值样本被判定为负类。而往往此阈值对指标的值会有影响。可以通过ROC曲线(Receiver Operating Characteristic curve)来衡量不同阈值下的模型性能,该曲线是以不同阈值下真阳性率(True Positive Rate,TPR)和假阳性率(FalsePositive Rate,FPR)为横纵坐标所画出来的曲线。AUC就是ROC曲线下方的面积。AUC的取值范围在0到1之间,越接近1模型的分类性能越好。

F1值是召回率和精度的调和值,既反映了正样本的识别率也考虑了正样本的识别精度,用如下公式计算:

其中FN表示预测是负样本实际是正样本,FP表示预测为正样本实际是负样本,TP表示预测为正样本实际是正样本。

为了验证所渐进式注意力机制的有效性,选择了3种基于空间域的检测方法:Capsule、CNNDetection、F3net做对比,实验结果如下表所示:

为了验证时空特征结合机制的有效性,选择了2种时空特征结合的检测模型:CRNN、CapsNet-iDRA-STF做对比,对比每种方法的检测准确率,实验结果如下表所示。

以上所述的实施例仅是对本发明优选方式进行的描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

相关技术
  • 近红外线屏蔽材料微粒及其制造方法、与近红外线屏蔽材料微粒分散液
  • 复合树脂颗粒、复合树脂颗粒分散液以及相关产品的制造方法
  • 复合树脂颗粒分散液以及相关材料的制造方法
技术分类

06120116555007