掌桥专利:专业的专利平台
掌桥专利
首页

数据压缩方法、装置、电子设备和存储介质

文献发布时间:2023-06-19 09:57:26


数据压缩方法、装置、电子设备和存储介质

技术领域

本申请涉及量子计算领域,具体涉及量子奇异值分解和量子机器学习技术。更具体地,本申请提供了一种数据压缩方法、装置、电子设备和存储介质。

背景技术

量子计算机正在朝着规模化和实用化的方向前进,与经典的信息处理方式类似,高效地压缩和存储数据是极其重要的问题。

目前,在经典计算机上能够对经典数据进行压缩,但是无法实现对量子态数据的压缩。而在量子计算机上实现量子数据的压缩仍然存在较大的技术缺口。

发明内容

提供了一种数据压缩方法、装置、电子设备和存储介质。

根据第一方面,提供了一种数据压缩方法,包括:获取预先制备的正交量子态向量组和待压缩数据的原始信息矩阵,正交量子态向量组包括彼此正交的多个量子态向量;使用量子神经网络基于正交量子态向量组和原始信息矩阵来估计原始信息矩阵的奇异值序列,并基于所估计的奇异值序列计算量子神经网络的损失;在损失满足预设条件的情况下,基于在估计奇异值序列的过程中产生的量子态矩阵和所估计的奇异值序列,计算待压缩数据的压缩信息矩阵。

根据第二方面,提供了一种数据压缩装置,包括:获取模块,用于获取预先制备的正交量子态向量组和待压缩数据的原始信息矩阵,正交量子态向量组包括彼此正交的多个量子态向量;估计模块,用于使用量子神经网络基于正交量子态向量组和原始信息矩阵来估计原始信息矩阵的奇异值序列,并基于所估计的奇异值序列计算量子神经网络的损失;计算模块,用于在损失满足预设条件的情况下,基于在估计奇异值序列的过程中产生的量子态矩阵和所估计的奇异值序列,计算待压缩数据的压缩信息矩阵。

根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本申请提供的数据压缩方法。

根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据本申请提供的数据压缩方法。

应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。

附图说明

附图用于更好地理解本方案,不构成对本申请的限定。其中:

图1是根据本申请一个实施例的在经典计算机上对存储数据的信息矩阵进行奇异值分解的原理示意图;

图2是根据本申请的一个实施例的可以应用数据压缩方法和装置的示例性系统架构;

图3是根据本申请的一个实施例的数据压缩方法的流程图;

图4是根据本申请的另一个实施例的数据压缩方法的流程图;

图5是根据本申请的一个实施例的估计原始信息矩阵的奇异值序列方法的流程图;

图6是根据本申请的一个实施例的阿达马测试模型的示意图;

图7是根据本申请的一个实施例的计算待压缩数据的压缩信息矩阵的方法的流程图;

图8是根据本申请的一个实施例的数据压缩系统的结构示意图;

图9是根据本申请的一个实施例的数据压缩装置的框图;以及

图10是根据本申请一个实施例的数据压缩方法的电子设备的框图。

具体实施方式

以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

奇异值分解(Singular Value Decomposition,SVD)在经典计算机上经过验证是一种高效的数据压缩技术并且可以实现对数据的主要成分分析。

图1是根据本申请一个实施例的在经典计算机上对存储数据的信息矩阵进行奇异值分解的原理示意图。

如图1所示,奇异值分解的原理是将存储数据的信息矩阵M

图2是根据本申请一个实施例的可以应用数据压缩方法和装置的示例性系统架构200。需要注意的是,图2所示仅为可以应用本申请实施例的系统架构的示例,以帮助本领域技术人员理解本申请的技术内容,但并不意味着本申请实施例不可以用于其他设备、系统、环境或场景。

如图2所示,根据该实施例的系统架构200可以包括经典设备210(也可以称为经典计算机)和量子设备220(也可以称为量子计算机)。在量子设备220中可以对量子比特上的量子态进行操作,使得量子态发生改变,量子态可以用量子态向量表示,量子比特是存储量子态向量的计量单位。在量子态设备220中可以包括量子神经网络221,量子神经网络221也可以称为参数化量子电路模型,与经典电路类似,参数化量子电路模型可以由多个用于对量子比特进行操作的量子逻辑门组成的,例如,量子逻辑门可以是作用在单量子比特使得该单量子比特的量子态向量发生一定角度旋转的旋转门,该量子态向量旋转的角度作为量子电路模型的参数。由此,量子神经网络221包括多个参数,可以组成参数向量。

量子神经网络221的参数决定了电路模型的输出,因此,对于输入到量子神经网络221的原始量子态数据,基于确定的参数向量,可以确定输出的目标量子态数据。由于量子态数据不可复制,可以通过保存量子神经网络221的参数,来间接实现量子态数据的重现。例如,在量子神经网络221具有目标参数向量时,作用在原始量子态数据,可以得到目标量子态数据,因此,可以通过保存该目标参数向量,在需要获得目标量子态数据时,将原始量子态数据输入到量子神经网络221,使得量子神经网络221输出目标量子态数据。

示例性地,目标量子态数据可以是原始量子态数据的压缩后的数据,可通过调整参数得到的量子神经网络221,使得该量子神经网络221作用在输入的原始量子态数据的原始信息矩阵A,能够输出压缩后的目标量子态数据的压缩信息矩阵A′。按照该压缩信息矩阵A′调用预设的量子态制备程序便可以制备出压缩的目标量子态数据,该压缩的目标量子态数据相比于原始量子态数据,提取出了原始量子态数据的主要信息,同时完成了对原始量子态数据的噪声等冗余信息的压缩,能够有效节省存储空降。并且提取出原始量子态数据的主要信息可以实现数据的主要成分分析,数据的主成分分析对于推荐系统有着广泛应用,因此,在量子计算机上实现量子态数据的压缩具有重要意义。

使用量子设备220同时可以实现对经典数据的压缩。示例性地,参照图2,获取经典设备201中的待压缩对象B,该待压缩对象B可以是图像、图标和表格等数据对象。在量子设备220中将待压缩对象B的原始信息矩阵输入到量子神经网络221中,可以输出将待压缩对象B的压缩信息矩阵,可以将压缩信息矩阵发送给经典设备,使得在经典设备中存储压缩后的数据对象B′,能够减少存储空间。因此,在量子计算机上实现数据压缩对于压缩数据和图像处理等多个领域有着广泛的应用。

需要说明的是,目前大多数的量子算法主要处理厄米矩阵而对非厄米矩阵没有很好的处理能力。而图像和表格等经典数据的信息矩阵表示形式则大多是非厄米矩阵,根据本申请实施例可以实现对非厄米矩阵的高效压缩,进而提取主要成分,从而实现量子数据或者经典数据的压缩。

图3是根据本申请的一个实施例的数据压缩方法的流程图。

如图3所示,该数据压缩方法300可以包括操作S310~操作S330。

在操作S310,获取预先制备的正交量子态向量组和待压缩数据的原始信息矩阵,正交量子态向量组包括彼此正交的多个量子态向量。

根据本申请的实施例,在经典数据领域,待压缩数据可以包括图像、图表和表格等,可以将待压缩数据表示为信息矩阵。例如,将图像中每个像素的像素值或亮度值作为信息矩阵的元素,生成图像的信息矩阵。又例如,将表格中的数据作为矩阵中的元素,生成表格的信息矩阵。在量子态领域,信息矩阵可以是以矩阵形式表示的物理系统的状态。需要说明的是,信息矩阵可以是N×N的方阵,且N=2n,n为大于等于1的整数。如果信息矩阵不是维度是2n×2n的方阵,可以通过在矩阵的行或列补零将信息矩阵转化为维度为2n×2n的方阵,例如信息矩阵M的维度是8×7,可以对信息矩阵补上一列全为0的向量作为信息矩阵的最后一列,得到维度为8×8的信息矩阵M。

根据本申请的实施例,矩阵的秩可以表示矩阵包含的信息的冗余程度。例如,针对维度为8×8的信息矩阵M,矩阵M的秩最大为8,如果矩阵M中有两列的数据相同,说明矩阵中有相同的信息,为冗余信息,则矩阵的秩减1。因此,如果T为对数据进行压缩期望达到的压缩程度,则T的值应设置为小于矩阵的秩,才能达到数据压缩的效果。示例性地,待压缩数据的信息矩阵可以称为原始信息矩阵M,针对维度为8×8的原始信息矩阵M,如果M的秩为8,则可以设置压缩程度T为4。

根据本申请的实施例,量子态可以是向量表示形式,也可以是矩阵表示形式,正交量子态向量组是一组彼此相互正交的量子态向量,即正交量子态向量组包括多个量子态向量,该多个量子态向量中的每两个相互正交。正交量子态向量组在数学上可以表示一组标准正交基。例如,正交量子态向量组可以表示为

示例性地,量子态向量可以表示为

需要说明的是,量子态还可以以矩阵的形式表示,则一组正交的量子态可以表示为

根据本申请的实施例,量子态向量的维度与原始信息矩阵M的维度相关,如果原始信息矩阵M是N×N矩阵,则量子态向量为N维向量。例如,原始信息矩阵M的维度是8×8,则量子态向量的维度是8×1。量子态向量组中量子态向量的数量与预设的压缩程度相关,例如,预设的压缩程度T为4,则量子态向量组中包括4个量子态向量,即量子态向量组中包括4个维度是8×1的量子态向量。

在操作S320,使用量子神经网络基于正交量子态向量组和原始信息矩阵来估计原始信息矩阵的奇异值序列,并基于所估计的奇异值序列计算量子神经网络的损失。

根据本申请的实施例,量子神经网络可以包括参数化量子电路模型,参数化量子电路模型可以由多个单量子比特旋转门和受控反闸门组成,参数化量子电路模型的参数组成量子神经网络的参数(或参数组)。示例性地,量子神经网络包括参数化量子电路U(α)和V(β),U(α)和V(β)分别是由多个单量子比特旋转门和受控反闸门组成。以U(α)进行说明:U(α)包括多个对单量子比特进行操作的旋转门以及对双量子比特进行操作的受控反闸门,每个旋转门作用在量子比特上,使得量子比特所处在的量子态向量发生一定角度的旋转,旋转的角度即为该旋转门的参数。U(α)中每个旋转门的参数α

根据本申请的实施例,U(α)作用在一组正交量子态向量,可以读取出U(α)的量子态矩阵。V(β)作用在一组正交量子态向量,可以读取出V(β)的量子态矩阵。示例性地,U(α)作用在|ψ

根据本申请的实施例,根据原始信息矩阵M的奇异值序列可以计算量子神经网络的损失函数,基于损失函数可调整该量子神经网络的参数,使用调整后的量子神经网络的参数进行迭代训练,直至损失函数达到预设条件,表示量子神经网络输出最优的奇异值序列,停止调整量子神经网络的参数。这里,可以设计损失函数为各个奇异值的加权和,以损失函数最大为目标,使用梯度下降法或者其他最优化方法来优化损失函数,直至损失函数达到最大时最后一轮训练结束,经最后一轮训练的量子神经网络的参数为最优参数。

S330,在损失满足预设条件的情况下,基于在估计奇异值序列的过程中产生的量子态矩阵和所估计的奇异值序列,计算待压缩数据的压缩信息矩阵。

根据本申请的实施例,在量子神经网络训练的过程中,U(α)作用在一组正交量子态向量,读取出U(α)的量子态矩阵,记为第一量子态矩阵。V(β)作用在一组正交量子态向量,读取出V(β)的量子态矩阵,记为第二量子态矩阵。示例性地,正交量子态向量第一量子态矩阵为|ψ

示例性地,左奇异向组成的矩阵记为U,右奇异向组成的矩阵记为V,基于最优的奇异值序列可以生成信息矩阵的对角矩阵记为D,则待压缩数据的压缩信息矩阵

根据本申请的实施例,使用量子神经网络基于正交量子态向量组和原始信息矩阵来估计原始信息矩阵的奇异值,基于估计的奇异值确定量子神经网络的损失,在损失满足预设条件的情况下,基于使用量子神经网络估计奇异值的过程中产生的量子态矩阵以及奇异值序列,计算压缩信息矩阵。由于在损失满足预设条件的情况下量子神经网络输出最优的奇异值序列,基于满足预设条件的量子神经网络在输出最优的奇异值序列的过程中产生的量子态矩阵以及最优的奇异值序列计算压缩信息矩阵,能够实现量子态数据的压缩。

本领域技术人员可以理解,本申请实施例利用了近期量子设备所能提供的参数化量子电路,通过结合奇异值的变分原理设计了一个损失函数,从而将量子奇异值分解问题转化成了一个量子机器学习的问题。实现可行的量子奇异值分解,可以提升量子计算机上的特征提取与量子数据压缩能力,并且实现对非厄米矩阵的高效压缩,进而提取主要成分,实现量子数据或者经典数据的压缩。

需要说明的是,基于满足预设条件的量子神经网络在输出最优的奇异值序列的过程中产生的量子态矩阵以及最优的奇异值序列计算压缩信息矩阵,也能够实现经典数据的压缩。

图4是根据本申请的另一个实施例的数据压缩方法的流程图。

如图4所示,该数据压缩方法400可以包括操作S410~操作S440。

在操作S410,获取预先制备的正交量子态组和待压缩数据的原始信息矩阵,正交量子态向量组包括彼此正交的多个量子态。

根据本申请的实施例,待压缩数据可以是经典领域的图像、图表和表格等,也可以是量子态领域中以矩阵形式表示的物理系统的状态。待压缩数据的原始信息矩阵M是N×N的方阵,且N=2

正交量子态向量组是一组彼此相互正交的量子态向量,即正交量子态向量组包括多个量子态向量,该多个量子态向量中的每两个相互正交。正交量子态向量组在数学上可以表示一组标准正交基。例如,正交量子态向量组可以表示为

在操作S420,使用量子神经网络基于正交量子态向量组和原始信息矩阵来估计原始信息矩阵的奇异值序列,并基于所估计的奇异值序列计算量子神经网络的损失。

根据本申请的实施例,量子神经网络可以包括参数化量子电路模型U(α)和V(β),U(α)作用在一组正交量子态向量,可以读取出U(α)的量子态矩阵。V(β)作用在一组正交量子态向量,可以读取出V(β)的量子态矩阵。示例性地,U(α)作用在|ψ

根据本申请的实施例,根据原始信息矩阵M的奇异值序列可以计算量子神经网络的损失函数,这里,可以计算各个奇异值的加权和作为量子神经网络的损失函数。具体地,根据为奇异值序列中各个奇异值预先分配的权重,计算奇异值序列中各个奇异值的加权和,作为量子神经网络的损失。为奇异值序列中各个奇异值预先分配的权重依次递减,可以记为q={q

在操作S430,判断量子神经网络的损失是否满足预设条件。如果满足,执行操作S440,如果不满足,则返回操作S420。

根据本申请的实施例,可以以损失函数最大为目标,判断损失函数是否达到最大,来判断损失函数是否达到预设条件。在以损失函数最大为目标调整量子神经网络的参数进行迭代训练的过程中,可以使用梯度下降法或者其他最优化方法来优化损失函数。示例性地,如果量子神经网络经本轮训练,损失函数与上轮训练的损失函数的差距小于一定阈值,如0.001,则可以认为损失函数收敛,即本轮训练得到的损失函数达到最大,也即损失函数满足预设的条件,则可以执行操作S440。否则,重新进行训练直至损失函数满足预设条件。

在操作S440,基于在使用量子神经网络来估计奇异值序列的过程中产生的量子态矩阵和所估计的奇异值序列,计算待压缩数据的压缩信息矩阵。

根据本申请的实施例,损失函数达到最大时最后一轮训练结束,经最后一轮训练的量子神经网络的参数为最优参数,最后一轮训练的量子神经网络输出的奇异值序列为最优奇异值序列。最后一轮训练过程中产生的|ψ

根据本申请的实施例,以损失函数最大为目标调整量子神经网络的参数进行迭代训练,在损失函数达到最大的一轮训练中,量子神经网络的参数达到最优,量子神经网络输出的奇异值序列也达到最优。基于使损失函数最大的一轮训练过程中产生的量子态矩阵和奇异值序列生成的对角矩阵,计算得到压缩信息矩阵,实现数据的压缩。

图5是根据本申请的一个实施例的估计原始信息矩阵的奇异值序列方法的流程图。

如图5所示,该方法可以包括操作S521~操作S523。

在操作S521,使用第一参数化量子电路模型,基于正交量子态向量组得到第一量子态矩阵。

在操作S522,使用第二参数化量子电路模型,基于正交量子态向量组得到第二量子态矩阵。

在操作S523,基于第一量子态矩阵、原始信息矩阵以及第二量子态矩阵,估计原始信息矩阵的奇异值序列。

根据本申请的实施例,第一参数化量子电路模型可以是U(α),U(α)作用在|ψ

第二参数化量子电路模型可以是V(β),V(β)作用在|ψ

示例性地,根据矩阵乘法规则,第一量子态矩阵的共轭转置矩阵(维度是4×8)乘以原始信息矩阵M(维度是8×8)乘以第二量子态矩阵(维度是8×4),得到的是一个对角矩阵,对角矩阵对角线上的元素为奇异值。

示例性地,也可以根据向量与矩阵的乘积进行理解。第一量子态矩阵的每一列|ψ

根据本申请的实施例,可以通过阿达马测试模型实现上述奇异值估计的过程。

图6是根据本申请的一个实施例的阿达马测试模型的示意图。

如图6所示,该阿达马测试模型600包括第一操作子子模型610和第二操作子模型620。

根据本申请的实施例,第一操作子模型610的电路形式可以表示为

图7是根据本申请的一个实施例的计算待压缩数据的压缩信息矩阵的方法的流程图。

如图7所示,该方法可以包括操作S731~操作S732。

在操作S731,确定第二量子态矩阵的共轭转置矩阵。

在操作S732,基于所估计的奇异值序列,生成第三量子态矩阵。

在操作S733,计算第一量子态矩阵、第三量子态矩阵和第二量子态矩阵的共轭转置矩阵的乘积,作为待压缩数据的压缩信息矩阵。

根据本申请的实施例,在量子神经网络训练的过程中,U(α)作用在一组正交量子态向量,读取出U(α)的量子态矩阵,记为第一量子态矩阵,正交量子态向量组可以表示为

损失函数满足预设条件时最后一轮训练结束,经最后一轮训练的量子神经网络的参数为最优参数,最后一轮训练的量子神经网络输出的奇异值序列为最优奇异值序列。最后一轮训练过程中产生的|ψ

图8是根据本申请的一个实施例的数据压缩系统的结构示意图。

如图8所示,数据压缩系统800包括经典设备810和量子设备820,其中,经典设备810包括设置模块811、计算模块812和优化模块813,量子设备820包括第一参数化量子电路模型U(α)821、第二参数化量子电路模型V(β)822和阿达马测试模型823,U(α)的参数向量为α,V(β)的参数向量为β。第一参数化量子电路模型U(α)821、第二参数化量子电路模型V(β)822和阿达马测试模型823组成量子神经网络,量子神经网络的参数包括α和β。

基于该数据压缩系统800进行数据压缩的步骤如下:

步骤1,获取待压缩对象的原始信息矩阵M,其中,M是维度为2n×2n的方阵,如果M不是维度为2n的方阵,可以通过在矩阵的行或列补零将M转化为维度为2n的方阵,例如M是维度为8×8的方阵。待压缩数据可以是经典领域的图像、图表和表格等,也可以是量子态领域中以矩阵形式表示的物理系统的状态。

步骤2,在经典设备810上,通过设置模块811设置待压缩对象的压缩程度T,并准备一组递减的权重序列q={q

步骤3,在量子设备820上准备正交的量子态向量组

步骤4,在量子设备820上,第一参数化量子电路模型U(α)821作用在|ψ

步骤5,将|ψ

步骤6,将估计后的奇异值序列{m

步骤7,在经典设备810上通过优化模块813梯度下降法或者其他最优化方法优化损失函数L,使损失函数L最大化。在量子设备820上,以损失函数最大化为目标对量子神经网络进行迭代训练,在损失函数达到最大时,得到最优的奇异值序。

步骤8,损失函数达到最大时最后一轮训练结束,经最后一轮训练的量子神经网络的参数为最优参数,最优参数记为α

步骤9,基于左奇异向量组成的矩阵(即U(α

步骤10,针对经典数据领域,压缩信息矩阵M′即为压缩后的数据的信息矩阵,压缩任务完成。针对量子态数据领域,按照压缩信息矩阵M‘,调用预设的量子态制备程序便可以制备出压缩的量子态数据。

图9是根据本申请的一个实施例的数据压缩装置的框图。

如图9所示,该数据压缩装置900可以包括获取模块910、估计模块920和计算模块930。

获取模块910用于获取预先制备的正交量子态向量组和待压缩数据的原始信息矩阵,正交量子态向量组包括彼此正交的多个量子态向量。

估计模块920用于使用量子神经网络基于正交量子态向量组和原始信息矩阵来估计原始信息矩阵的奇异值序列,并基于所估计的奇异值序列计算量子神经网络的损失。

计算模块930用于在损失满足预设条件的情况下,基于在估计奇异值序列的过程中产生的量子态矩阵和所估计的奇异值序列,计算待压缩数据的压缩信息矩阵。

根据本申请的实施例,该数据压缩装置900还包括判断模块和调整模块。

判断模块用于在估计模块920计算出量子神经网络的损失之后,判断量子神经网络的损失是否满足预设条件,在损失满足预设条件的情况下,执行计算模块930,在损失不满足预设条件的情况下,执行调整模块。

调整模块用于根据量子神经网络的损失来调整量子神经网络的参数,并返回执行估计模块920。

根据本申请的实施例,估计模块920用于使用第一参数化量子电路模型,基于正交量子态向量组得到第一量子态矩阵;使用第二参数化量子电路模型,基于正交量子态向量组得到第二量子态矩阵;基于第一量子态矩阵、原始信息矩阵以及第二量子态矩阵,估计原始信息矩阵的奇异值序列。

根据本申请的实施例,估计模块920用于计算第一量子态矩阵的每一列向量的共轭转置向量、原始信息矩阵以及第二量子态矩阵每一列向量的乘积;确定每一个乘积的实数部分作为所估计的奇异值;基于各个所估计的奇异值,得到所估计的奇异值序列。

根据本申请的实施例,计算模块930用于确定第二量子态矩阵的共轭转置矩阵;基于所估计的奇异值序列,生成第三量子态矩阵;以及计算第一量子态矩阵、第三量子态矩阵和第二量子态矩阵的共轭转置矩阵的乘积,作为待压缩数据的压缩信息矩阵。获取单元用于获取生成网络输出的多个生成图像。

根据本申请的实施例,估计模块920用于根据为奇异值序列中各个奇异值预先分配的权重,计算奇异值序列中各个奇异值的加权和,作为量子神经网络的损失。

根据本申请的实施例,为奇异值序列中各个奇异值预先分配的权重依次递减。

根据本申请的实施例,该数据压缩装置900还包括制备模块。

制备模块用于按照压缩信息矩阵制备量子态数据的压缩数据。

根据本申请的实施例,正交量子态向量组中量子态向量为N维向量,原始信息矩阵是N×N矩阵,其中N=2n,n为大于等于1的整数。

根据本申请的实施例,正交量子态向量组中量子态向量的个数小于原始信息矩阵的秩。

如图10所示,是根据本申请一个实施例的数据压缩方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。

如图10所示,该电子设备1000包括:一个或多个处理器1001、存储器1002,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图10中以一个处理器1001为例。

存储器1002即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的数据压缩方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的数据压缩方法。

存储器1002作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的数据压缩方法对应的程序指令/模块(例如,附图9所示的获取模块910、估计模块920和计算模块930)。处理器1001通过运行存储在存储器1002中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的数据压缩方法。

存储器1002可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据数据压缩方法的电子设备1000的使用所创建的数据等。此外,存储器1002可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1002可选包括相对于处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至数据压缩方法的电子设备1000。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

数据压缩方法的电子设备1000还可以包括:输入装置1003和输出装置1004。处理器1001、存储器1002、输入装置1003和输出装置1004可以通过总线或者其他方式连接,图10中以通过总线连接为例。

输入装置1003可接收输入的数字或字符信息,以及产生与数据压缩方法的电子设备1000的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1004可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。

此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。

这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。

为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。

可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。

计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。

根据本申请实施例的技术方案,使用量子神经网络基于正交量子态向量组和原始信息矩阵来估计原始信息矩阵的奇异值,基于估计的奇异值确定量子神经网络的损失,在损失满足预设条件的情况下,基于使用量子神经网络估计奇异值的过程中产生的量子态矩阵以及奇异值序列,计算压缩信息矩阵。由于在损失满足预设条件的情况下量子神经网络输出最优的奇异值序列,基于满足预设条件的量子神经网络在输出最优的奇异值序列的过程中产生的量子态矩阵以及最优的奇异值序列计算压缩信息矩阵,能够实现量子态数据的压缩。

应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。

上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

相关技术
  • 数据压缩方法及其装置、数据解压方法及其装置、存储介质及电子设备
  • 数据压缩方法、数据解压缩方法、装置及电子设备
技术分类

06120112359868