掌桥专利:专业的专利平台
掌桥专利
首页

神经网络模型、方法、电子设备及可读介质

文献发布时间:2023-06-19 10:41:48


神经网络模型、方法、电子设备及可读介质

技术领域

本申请涉及机器学习技术领域,具体涉及一种神经网络模型、方法、电子设备及可读介质。

背景技术

神经网络是机器学习模型中的一种模型,由于神经网络具有很强的表达能力,在语音识别、图像分类、人脸识别、自然语言处理等领域,因此常被用于对复杂任务进行建模。

神经网络模型的结构包括输入层、中间层和输出层,其中,中间层包括多个神经元,调整神经元数量可以调整神经网络模型的复杂度和表达能力。不同神经网络模型通常单独使用,例如,人工神经网络和脉冲神经网络往往单独使用,不能混合使用。

发明内容

提供了一种神经网络模型、方法、电子设备及可读介质。

根据第一方面,提供了一种神经网络模型,包括至少一层中包括不同类型的神经网络的神经元。

根据第二方面,提供了一种神经元掩膜训练方法,包括:

基于初始神经网络的梯度信息和初始连续掩膜的梯度信息分别更新当前的初始神经网络和初始连续掩膜,得到中间连续腌膜;其中,所述初始神经网络包括分别与初始连续掩膜结构相同的、类型不同的第一神经元组和第二神经元组;

将中间连续腌膜二值化得到二值掩膜,基于当前的初始神经网络梯度信息更新当前的初始神经网络,并根据二值掩膜的梯度信息更新中间连续腌膜,再将更新后的中间连续腌膜二值化得到二值掩膜;

若当前满足终止条件,基于当前的初始神经网络和二值掩膜得到神经网络模型。

根据第三方面,提供了一种时序数据处理方法,包括:

将时序数据输入神经网络模型,得到代表时序数据的特性的处理结果,其中,所述神经网络模型为本申请提供的神经网络模型。

根据第四方面,提供了一种电子设备,其包括:

至少一个处理器;以及

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行神经网络模型生成方法和时序数据处理方法中任一项所述的方法。

根据第五方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述任意一种神经网络模型生成方法和时序数据处理方法。

本申请提供的神经网络模型,至少一层中包括不同类型的神经网络的神经元,该神经网络模型可以有效地结合不同类型的神经网络的优点,提高识别准确率,同时可以提高计算效率,从而扩大神经网络的应用范围和灵活性。

应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。

附图说明

附图用于更好地理解本方案,不构成对本申请的限定。其中:

图1是单独使用人工神经网络模型进行信息处理的示意图;

图2是单独使用脉冲神经网络模型进行信息处理的示意图;

图3是本申请实施例提供的一种神经网络模型的原理框图;

图4为本申请实施例提供的一种神经元掩膜训练方法的流程图;

图5为利用本申请实施例提供的神经网络模型对两种类型的神经网络的神经元进行拼接的示意图;

图6是用来实现本申请实施例的电子设备的框图。

具体实施方式

以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

在不冲突的情况下,本申请各实施例及实施例中的各特征可相互组合。

如本文所使用的,术语“和/或”包括一个或多个相关列举条目的任何和所有组合。

本文所使用的术语仅用于描述特定实施例,且不意欲限制本申请。如本文所使用的,单数形式“一个”和“该”也意欲包括复数形式,除非上下文另外清楚指出。还将理解的是,当本说明书中使用术语“包括”和/或“由……制成”时,指定存在特征、整体、步骤、操作、元件和/或组件,但不排除存在或添加一个或多个其它特征、整体、步骤、操作、元件、组件和/或其群组。

神经网络是机器学习中的一种模型,是一种模仿动物神经网络行为特征,并进行分布式并行信息处理的算法数学模型。神经网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。

神经网络模型按照拓扑结果分类,包括前馈神经网络模型和反馈神经网络模型,按照性能分类,包括连续型和离散型的网络模型。不同类型的神经网络模型具有不同的处理能力,而且具有不同的优势。例如,人工神经网络模型和脉冲神经网络模型均可用于处理具有时空域的信息流,卷积神经网络可用于处理离散的信息流。

不同的神经网络模型各有优缺点,但目前的神经网络模型只能单独使用,但无法混合使用,因此,无法平衡不同神经网络模型的缺点,从而影响神经网络的应用。例如,利用人工神经网络模型和脉冲神经网络模型均可进行语音识别处理或自然语言处理,如图1和图2所示。在图1中,方框表示人工神经网络,方框内的数字表示人工神经网络的神经元。输入的人工神经网络的神经元只有一种,即只有人工神经网络的神经元,输出的神经元也是人工神经网络的神经元。在1b中,圆圈表示脉冲神经网络,圆圈内的数字表示脉冲神经网络的神经元。输入的脉冲神经网络的神经元只有一种,即只有脉冲神经网络的神经元,输出的神经元也是脉冲神经网络的神经元。

在实际应用中,人工神经网络模型准确率较高,但计算量较大,脉冲神经网络模型计算量较少,但准确率较低。由于人工神经网络模型和脉冲神经网络模型只能单独使用,无法对人工神经网络模型的高准确率和脉冲神经网络模型的小计算量进行平衡,因此,无法同时获得小计算量和高准确率的效果。

第一方面,本申请实施例提供一种神经网络模型,该神经网络模型可将多个不同类型的神经网络拼接,结合了不同神经网络模型的优点,平衡了不同神经网络模型的缺点。

本申请实施例提供的神经网络模型包括:至少一层中包括不同类型的神经网络的神经元。

其中,神经网络是模仿动物神经网络行为特征的网络。神经网络可以根据处理能力确定其类型。例如,根据处理时间序列的能力,可以将反馈人工神经网络和脉冲神经网络归类在同一神经网络类型,即反馈人工神经网络和脉冲神经网络为具有处理时间序列能力的神经网络。

在本实施例中,每个神经网络具有不同的神经元,即使属于同一种神经网络类型的不同神经网络,其对应的神经元也不相同。

例如,反馈人工神经网络和脉冲神经网络均属于具有处理时间序列能力的神经网络类型,但反馈人工神经网络对应的神经元和脉冲神经网络对应的神经元属于两种类型的神经元。

在一些实施例中,神经网络模型包括至少一层中间层,该中间层包括两种以上个类型的神经网络的神经元。例如,中间层包括反馈人工神经网络的神经元和脉冲神经网络的神经元。

图3为本申请实施例提供的一种神经网络模型的原理框图。参考图3,神经网络模型包括输入层301、中间层302和输出层303,其中,输入层301用于获取处理元素。中间层302用于对处理元素进行处理。输出层303用于输出处理结果。输入层301、中间层302和输出层303至少有一层包括不同类型的神经网络的神经元。

其中,处理元素包括但不限于语音处理元素、自然语言处理元素和图像处理元素。例如,在语音识别时,输入层301按照处理元素的语料点提取语音中各个语料信息。

在一些实施例中,中间层包括第一中间层302a和第二中间层302b,而且,第一中间层302a和第二中间层302b均包括两种类型的神经网络的神经元。在第一中间层302a中,元素1、元素4、元素6表示人工神经网络的神经元,元素2、元素3、元素5表示脉冲神经网络的神经元。在第二中间层302b中,元素2、元素3、元素6表示人工神经网络的神经元,元素1、元素4、元素5表示脉冲神经网络的神经元。

在本实施例中,第一中间层302a接收输入层301输入后,对该层的神经元处理后,将处理结果输出至第二中间层302b;第二中间层302b接收第一中间层302a的输出结果后,并对该层的神经元处理后,将结果输出给输出层303,并由输出层303将处理结果输出。

本申请实施例提供的神经网络模型,至少一层中包括不同类型的神经网络的神经元,利用神经网络的神经元取得对应的神经网络的优点,同时克服其它神经网络的确定,从而有效地结合了不同类型的神经网络的优点,同时规避其它类型的神经网络的缺点,扩大神经网络的应用范围和灵活性。

而且,当神经网络模型包括反馈人工神经网络的神经元和脉冲神经网络的神经元时,该神经网络模型可以有效地结合反馈人工神经网络和脉冲神经网络的优点,即提高识别准确率和提高计算效率,从而扩大神经网络的应用范围和灵活性。

第二方面,本申请实施例提供一种神经元掩膜训练方法。依据该方法获得的掩膜可以建立至少一层包含多种类型的神经元的神经网络模型,以提高神经网络模型的应用范围和灵活性。

图4为本申请实施例提供的一种神经元掩膜训练方法的流程图。参考图4,本申请实施例提供的神经元掩膜的训练方法,包括:

步骤401,基于初始神经网络的梯度信息和初始连续掩膜的梯度信息分别更新当前的初始神经网络和初始连续掩膜,得到中间连续腌膜。

其中,初始神经网络的梯度信息是指神经网络各层之间变化值(改变量),后一层的梯度有前面层组合得到。初始连续掩膜的梯度信息是指连续掩膜的变化值(该变量),可以根据需要任意设定。

其中,初始神经网络包括分别与初始连续掩膜结构相同的、类型不同的第一神经元组和第二神经元组,换言之,初始神经网络的结构与初始连续掩膜的结构相同,而且包括两种类型不同的神经元组,其中,神经元组是神经元的集合。

在一些实施例中,初始神经网络的梯度信息和初始连续掩膜的梯度信息分别更新当前的初始神经网络和初始连续掩膜,得到中间连续掩膜。

其中,初始连续掩膜和中间连续掩膜均包括多个元素,每个元素的掩膜值为[0,1]之间的任意值,如0.01,0.02,……,0.98,0.99。

在一些实施例中,利用训练样本对初始神经网络和初始连续掩膜进行训练,训练样本可以是具有时序数据的训练样本。例如,训练样本为具有时序特征的数据转换得到的图像样本、语音样本和文字样本中的至少一项。

在一些实施例中,在步骤401之前还包括:设定初始神经网络和初始连续掩膜。其中,初始神经网络可以是人工神经网络神经元和脉冲神经网络神经元拼接成的神经网络。初始连续掩膜中各元素的掩膜值可以是[0,1]之间的任意值,而且各个元素按照顺序连续排列。

步骤402,将中间连续腌膜二值化得到二值掩膜,基于当前的初始神经网络梯度信息更新当前的初始神经网络,并根据二值掩膜的梯度信息更新中间连续腌膜,再将更新后的中间连续腌膜二值化得到二值掩膜。

其中,二值掩膜包括多个元素,每个元素与连续掩膜相对应,即每个连续掩膜对应一个二值掩膜。二值掩膜中每个元素的掩膜值为0或1。

由于二值掩膜不能直接更新,需要通过连续掩膜来更新二值掩膜,因此,将步骤401获得的中间连续掩膜二值化,得到二值掩膜,并根据二值掩膜的梯度信息更新中间连续腌膜,再将更新后的中间连续腌膜二值化得到二值掩膜,从而实现二值掩膜的更新。

在一些实施例中,在二值掩膜的更新过程中,基于初始神经网络梯度信息更新当前的初始神经网络,同时基于二值掩膜的梯度信息更新中间连续腌膜。

在将连续腌膜二值化时,可以设定一个中间值,连续掩膜中各元素的掩膜值与中间值比较后,根据比较结果确定二值化后的掩膜值。若连续掩膜中元素的掩膜值大于或等于中间值,则二值化后的掩膜值为1;若连续掩膜中元素的掩膜值小于中间值,则二值化后的掩膜值为0。

例如,按照四舍五入方式对连续掩膜进行二值化,并设定中间值为0.5,当连续掩膜中元素的掩膜值为0.4时,二值化后的掩膜值为0;当连续掩膜中元素的掩膜值为0.8时,二值化后的掩膜值为1。

本实施例不限于采用四舍五入方式对连续掩膜进行二值化,还可以采用其它方式对连续掩膜进行二值化,例如二值采样方式、直方图方式、计算平均值方式等,本申请对连续掩膜二值化的方式不做限定。

步骤403,若当前满足终止条件,基于当前的初始神经网络和二值掩膜得到神经网络模型。

其中,神经网络模型的终止条件包括但不限于收敛条件、预定循环次数和损失值。当神经网络的训练满足终止条件时,基于当前的初始神经网络和二值掩膜得到神经网络模型。

例如,在训练神经网络模型的过程中,在满足收敛条件的情况下,神经网络的训练停止,并基于当前的初始神经网络和二值掩膜得到神经网络模型。

再如,预先设定预定循环次数,在训练次数达到预定循环次数时,停止训练神经网络,并基于当前的初始神经网络和二值掩膜得到神经网络模型。

又如,预先设定函数的损失值,在神经网络的训练过程中,当函数值达到损失值时,停止训练神经网络,并基于当前的初始神经网络和二值掩膜得到神经网络模型。

在步骤403获得的固定的二值掩膜构建掩膜模型时,二值掩膜和网络参数均不再改变。

本实施例提供的神经网络模型训练方法,通过初始神经网络的梯度信息和初始连续掩膜的梯度信息分别更新当前的初始神经网络和初始连续掩膜,得到中间连续腌膜,再将中间连续掩膜二值化得到二值掩膜,基于当前的初始神经网络梯度信息更新当前的初始神经网络,并根据二值掩膜的梯度信息更新中间连续腌膜,再将更新后的中间连续腌膜二值化得到二值掩膜;当满足终止条件时,基于当前的初始神经网络和二值掩膜得到神经网络模型,该神经网络将不同类型的神经网络的神经元拼接在一起可以有效地结合不同类型的神经网络的优点,提高识别准确率的同时,可以提高计算效率,从而扩大神经网络的应用范围和灵活性。

在一些实施例中,步骤401包括:采用梯度下降算法,基于初始神经网络的梯度信息和初始连续掩膜的梯度信息更新当前的初始神经网络的参数和当前的初始连续掩膜的元素的掩膜值。

其中,梯度下降算法是寻找目标函数最小值或收敛到最小值的方法,获得最优的掩膜。

示例性,初始神经网络包括两种神经元,即第一神经元和第二神经元,初始神经网络中的第一神经元的输出经相应元素的掩膜值X过滤后进入下一层,初始神经网络中的第二神经元的输出经(1-X)过滤后进入下一层。

例如,初始神经网络的神经元包括人工神经网络神经元和脉冲神经网络神经元,第一神经元为人工神经网络神经元,第二神经元为脉冲神经网络神经元;或者,第一神经元为脉冲神经网络神经元,第二神经元为人工神经网络神经元。

在利用神经元掩膜对神经网络的神经元进行过滤的过程中,不同类型的神经网络的神经元被拼接在一起。神经网络的每一层的输出按照X×RNN+(1-X×SNN)进行拼接。其中,X表示元素的掩膜值,RNN表示人工神经网络的神经元,SNN表示脉冲神经网络的神经元。

其中,神经网络的参数是表示网络特性的参数,如网络节点数、训练的初始值、最小训练速率、迭代次数和sigmoid参数等。

在一些实施例中,步骤401包括:在初始连续掩膜的掩膜值满足第一约束条件的情况下,采用梯度下降算法,基于初始神经网络的梯度信息和初始连续掩膜的梯度信息更新当前的初始神经网络的参数和当前的初始连续掩膜的元素的掩膜值。

其中,第一约束条件包括对初始连续掩膜的每层中元素的平均值进行约束的多个约束条件;和/或,对初始连续掩膜中所有元素的平均值进行约束的约束条件。

示例性,若设定第一约束条件为初始连续掩膜的第一层中各个元素的平均值为0.4,则在采用梯度下降算法训练神经网络的过程中,在更新当前的初始神经网络的参数和当前的初始连续掩膜的元素的掩膜值,神经网络的第一层应满足各个元素的平均值为0.4的条件。

再如,若设定第一约束条件为初始连续掩膜中所有元素的平均值为0.6,则在采用梯度下降算法训练神经网络的过程中,在更新当前的初始神经网络的参数和当前的初始连续掩膜的元素的掩膜值时,神经网络中所有元素的平均值应满足0.4的条件。

在一些实施例中,步骤402包括:采用梯度下降算法,基于当前的初始神经网络梯度信息更新当前的初始神经网络的参数和当前的二值掩膜的元素的掩膜值。

其中,梯度下降算法是寻找目标函数最小值或收敛到最小值的方法,获得最优的掩膜。

在一些实施例中,对当前的二值掩膜中的掩膜值为1的元素,确定当前的初始神经网络中的相应位置的第一神经元,为神经网络模型中相应位置的神经元;对当前的二值掩膜中的掩膜值为0的元素,确定当前的初始神经网络中的相应位置的第二神经元,为神经网络模型中相应位置的神经元。

参阅图5,在神经网络的第一层501中,与掩膜值为0的元素位置对应的元素1、元素4、元素6确定为第一神经元,与掩膜值为1的元素位置对应的元素2、元素3、元素5确定为第二神经元。在神经网络的第二层502中,与掩膜值为0的元素位置对应的元素2、元素3、元素6确定为第一神经元,与掩膜值为1的元素位置对应的元素1、元素4、元素5确定为第二神经元。

在一些实施例中,步骤402包括:采用梯度下降算法,在二值掩膜的掩膜值满足第二约束条件情况下,基于当前的初始神经网络梯度信息更新当前的初始神经网络的参数和当前的二值掩膜的元素的掩膜值;二值掩膜的任意元素的掩膜值为第一值或第二值。

其中,第二约束条件为对二值掩膜的每层的元素中,掩膜值为第一值的元素的占比进行约束的多个约束条件;和/或,对二值掩膜的所有元素中,掩膜值为第一值的元素的占比进行约束的约束条件。

在一些实施例中,第二约束条件为二值掩膜的每层的元素中,掩膜值“1”所占的比例,或者“0”所占的比例。例如,第二约束条件为将第一层中“1”的元素的占比约束在80%,将“0”的元素的占比约束在20%。或者,第二约束条件为将第一层中“1”的元素的占比约束在50%,将“0”的元素的占比约束在50%。或者,第二约束条件为将第一层中“1”的元素的占比约束在20%,将“0”的比例约束在80%。这里列出的约束比例是示例性的,并不对约束比例的具体值做任何限定。

本申请实施例通过修改掩膜约束条件,可以提高神经网络模型的灵活性,使神经网络模型适应不同的应用场景和需求。

在训练神经网络的过程中,将神经元掩膜应用于神经网络中进行训练。用于利用神经元掩膜将不同类型的神经网络的神经元分类,得到与神经网络类型对应的神经元组。

在本实施例提供的神经元掩膜,可以将不同类型的神经网络的神经元混合在一起时,拼接组合为一套神经元,获得神经网络混合模型。

本申请实施例提供的神经元掩膜,可以将不同类型的神经网络的神经元拼接在一起,组合为一套神经元,依据该神经元掩膜获得的神经网络,可以将不同类型的神经网络的神经元拼接,获得拼接结果,该神经网络模型可以有效地结合不同类型的神经网络的优点,提高识别准确率的同时,可以提高计算效率,从而扩大神经网络的应用范围和灵活性。

在本申请实施例提供的神经网络模型为基于人工神经网络和脉冲神经网络获得的混合模型时,该神经网络模型能够获得较高的准确率,而且降低计算量,提高计算效率,平衡了准确率和计算效率的矛盾。另外,通过调节神经元掩膜,可以提高神经网络模型的灵活性。

第三方面,本申请实施例提供一种时序数据处理方法,该方法利用本实施例提供的神经网络模型对时序数据进行处理。

时序数据处理方法包括将时序数据输入神经网络模型,得到代表时序数据的特性的处理结果,其中,神经网络模型为本实施例提供的神经网络模型,而且,该神经网络模型通过本实施例提供的神经网络模型的训练方法获得。

其中,时序数据是时间上具有顺序的数据的集合,如语音数据、自然语言数据、视频数据等。处理结果带有时序数据的特性,对于语音数据和自然语言数据,处理结果可以是对应的文字或文字代表的意义。对于视频数据,处理结果可以是图片或图片表示的意义。

在一些实施例中,利用本申请实施例提供的神经网络模型处理语音识别、自然语言处理等信息。

本实施例提供的时序数据处理方法,可以将不同的神经网络的神经元拼接处理,有效地结合了不同神经网络的优点,提高识别准确率,同时提高计算效率,从而扩大神经网络的应用范围和灵活性。

第五方面,本申请还提供了一种电子设备和一种可读存储介质。

如图6所示,是根据本申请实施例的神经网络模型生成方法或时序数据处理的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。

如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。

存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的神经网络模型生成方法或时序数据处理的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的神经网络模型生成方法或时序数据处理的方法。

存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的神经网络模型生成方法或时序数据处理的方法对应的程序指令/模块。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的神经网络模型生成方法或时序数据处理的方法。

存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据神经网络模型生成方法或信息处理的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至神经网络模型生成方法或信息处理的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

神经网络模型生成方法或时序数据处理的方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。

输入装置603可接收输入的数字或字符信息,以及产生与神经网络模型生成方法或信息处理的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。

此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。

这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。

为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。

可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。

计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。

应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。

上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

相关技术
  • 用于神经网络模型全连接层的数据处理方法、可读介质和电子设备
  • 用于神经网络模型的数据量化方法、可读介质和电子设备
技术分类

06120112639980