掌桥专利:专业的专利平台
掌桥专利
首页

文本分类方法、装置、设备及存储介质

文献发布时间:2023-06-19 16:09:34



技术领域

本申请涉及自然语言处理技术领域,特别是涉及一种文本分类方法、装置、设备及存储介质。

背景技术

随机计算机技术的高速发展,爆发式增长的网络数据对数据的分析提出了更多和更高的要求。文本分析和挖掘技术是目前被广泛应用的一项技术,通过相应的技术和方法对文本的语义内容进行抽取,进而对文本进行分类聚类等一系列操作,其广泛应用于情感分析,智能客服,新闻归类,用户评论分析等场景等领域。

为了提高文本分析的智能化能力,由图像卷积CNN(Convolutional NeuralNetworks,卷积神经网络)算法演变而来了一种文本分类算法——TextCNN结构。CNN模型最开始被广泛应用于图像处理任务上,CNN模型后来经过研究发现在自然语言处理领域也行之有效,并在机器翻译,文本分类,搜索查询领域取得了不错的效果。而该TextCNN结构优势在于能够自动提取ngram特征,将重要的ngram给予较高的置信度权重,从而保证了较高的预测准确率,在中文这种以词为基本语义结构的文本中占据比较重要的地位。虽然在近几年,TextCNN预测的准确率略低于Transformer等诸多变体预训练模型,但TextCNN结构因其预测鲁棒性高,准确率较高,算法结构简单,可解释性较好,在小数据集上适应性较好等特点,仍在工业界被广泛应用。

TextCNN结构的分类高准确率的原因是其卷积层对重要ngram特征的提取能力,如果卷积核在卷积后得到的ngram特征的值越大,表示该卷积核对该ngram特征越敏感。而TextCNN结构分类出错的主要原因就是TextCNN结构的卷积核在抓取ngram特征时,无法准确抓取到自身敏感的ngram特征,导致最终分类预测不准确。

发明内容

本申请提供一种文本分类方法、装置、设备及存储介质,以解决现有的文本分类方法分类精确度不高的技术问题。

为解决上述技术问题,本申请采用的一个技术方案是:提供一种文本分类方法,包括:利用预先训练好的文本分类模型的输入层从待分类文本数据中提取得到嵌入特征向量;利用文本分类模型的卷积层对嵌入特征向量进行卷积,得到每个预设维度的卷积核对应的多个第一卷积特征向量,卷积层包括多个预设维度的卷积核;利用预先训练得到的每个预设维度对应的权重参数对多个第一卷积特征向量进行敏感度优化计算,得到多个第二卷积特征向量;利用文本分类模型的池化层选取每个第二卷积特征向量中的最大值并进行拼接,得到池化特征向量;利用文本分类模型的全连接层根据池化特征向量进行分类预测,得到文本分类结果。

作为本申请的进一步改进,预先训练文本分类模型,包括:获取样本数据并按照预设比例将样本数据划分为训练集和测试集;输入预先标注的训练集至待训练的文本分类模型,利用文本分类模型的多个预设维度的卷积核进行卷积得到每个预设维度对应的多个第一样本卷积特征;基于每个预设维度的卷积核对应的待训练权重参数对多个第一样本卷积特征进行计算,得到多个第二样本卷积特征;利用文本分类模型的池化层和全连接层进行分类预测,得到样本预测结果;基于样本预测结果、多个第一样本卷积特征向量和预先构建的目标损失函数反向更新文本分类模型,目标损失函数包括采用多元交叉熵定义的第一损失函数和更新每个预设维度的卷积核对应的权重参数的第二损失函数;输入预先标注的测试集至训练完成的文本分类模型,且当文本分类模型达到预设预测精准度时,确认文本分类模型已训练好。

作为本申请的进一步改进,基于样本预测结果、多个第一样本卷积特征向量和预先构建的目标损失函数反向更新文本分类模型,包括:根据第一损失函数和样本分类结果对文本分类模型的各层待训练参数进行训练更新,以及根据第二损失函数对每个预设维度对应的待训练权重参数进行训练更新。

作为本申请的进一步改进,目标损失函数表示为:

Loss=loss

其中,loss表示目标损失函数,loss

作为本申请的进一步改进,获取样本数据并按照预设比例将样本数据划分为训练集和测试集之后,还包括:

基于每个样本数据对应的真实分类结果对每个样本数据进行标注;

对预先标注的样本数据进行预处理。

作为本申请的进一步改进,对预先标注的样本数据进行预处理,包括:

对样本数据进行分词和去停用词处理;

统计每一样本数据的文本长度,并计算得到样本数据的平均长度,并结合平均长度截断过长的样本数据或补齐过短的文本数据。

作为本申请的进一步改进,文本分类模型基于TextCNN网络实现。

为解决上述技术问题,本申请采用的另一个技术方案是:提供一种文本分类装置,包括:提取模块,用于利用预先训练好的文本分类模型的输入层从待分类文本数据中提取得到嵌入特征向量;卷积模块,用于利用文本分类模型的卷积层对嵌入特征向量进行卷积,得到每个预设维度对应的多个第一卷积特征向量,卷积层包括多个预设维度的卷积核;优化模块,用于利用预先训练得到的每个预设维度的卷积核对应的权重参数对多个第一卷积特征向量进行敏感度优化计算,得到多个第二卷积特征向量;池化模块,用于利用文本分类模型的池化层选取每个第二卷积特征向量中的最大值并进行拼接,得到池化特征向量;分类模块,用于利用文本分类模型的全连接层根据池化特征向量进行分类预测,得到文本分类结果。

为解决上述技术问题,本申请采用的再一个技术方案是:提供一种计算机设备,所述计算机设备包括处理器、与所述处理器耦接的存储器,所述存储器中存储有程序指令,所述程序指令被所述处理器执行时,使得所述处理器执行如上述中任一项的文本分类方法。

为解决上述技术问题,本申请采用的再一个技术方案是:提供一种计算机可读存储介质,计算机可读存储介质存储有能够实现上述文本分类方法的计算机程序。

本申请的有益效果是:本发明的文本分类方法基于TextCNN模型来实现,其通过首先进行特征提取,并得到特征向量后,对特征向量进行卷积,得到多个维度第一卷积特征向量,再利用预先训练好的权重参数对读第一卷积特征向量进行敏感度优化,提高卷积层中各个卷积核对自身敏感的特征数据的辨识度,使得卷积层能够准确的抓取目标特征,进而提升最终的预测准确率。

附图说明

图1是本发明实施例的文本分类方法的流程示意图;

图2是本发明实施例的文本分类方法的文本分类模型训练的流程示意图;

图3是本发明实施例的文本分类装置的功能模块示意图;

图4是本发明实施例的计算机设备的结构示意图;

图5是本发明实施例的计算机可读存储介质的结构示意图。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

本申请中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。

在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。

本发明实时来的文本分类方法基于TextCNN结构构建的文本分类模型来实现。其中,TextCNN结构构建的文本分类模型包括:输入层、卷积层、池化层和全连接层。

1、输入层。输入层需要输入一个定长的文本序列L,也就是语句最长包含单词数为L,长度小于L的语句序列需要填充(一般用零填充),长于L的需要截取。在深度学习中一般使用Embedding来处理词向量。Embedding层在上文获得的词编码的基础上,对单词进行one-hot编码,每个词都会以一个固定维度的向量M保存;然后通过神经网络的训练迭代更新得到一个合适的权重矩阵,最终整个语句序列将转换成一个L*M的固定大小的矩阵形式。

2、卷积层。针对图像任务,CNN卷积核的宽度与高度在处理图像数据时,CNN使用的卷积核的宽度和高度的一样的,但是在TextCNN中,卷积核的宽度是与词向量的维度一致。这是因为输入的每一行向量代表一个词,在抽取特征的过程中,词作为文本的最小粒度,如果使用卷积核的宽度小于词向量的维度就已经不是以词作为最小粒度了。而高度和CNN一样,可以自行设置(通常取值2,3,4,5)。由于输入是一个句子,句子中相邻的词之间关联性很高,因此,当用卷积核进行卷积时,不仅考虑了词义而且考虑了词序及其上下文。(类似于skip-gram和CBOW模型的思想)。

3、池化层。因为在卷积层过程中使用了不同高度的卷积核,使得通过卷积层后得到的向量维度会不一致,所以在池化层中,使用1-Max-pooling对每个特征向量池化成一个值,即抽取每个特征向量的最大值表示该特征,而且认为这个最大值表示的是最重要的特征。当对所有特征向量进行1-Max-Pooling之后,还需要将每个值给拼接起来。得到池化层最终的特征向量。在池化层到全连接层之前可以加上dropout防止过拟合。

4、全连接层。全连接层跟其他模型一样,假设有两层全连接层,第一层可以加上“relu”作为激活函数,第二层则使用softmax激活函数得到属于每个类的概率。如果处理的数据集为二分类问题,如情感分析的正负面时,第二层也可以使用sigmoid作为激活函数,然后损失函数使用对数损失函数“binary_crossentropy”。

图1是本发明实施例的文本分类方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该方法包括以下步骤S101-步骤S105:

步骤S101:利用预先训练好的文本分类模型的输入层从待分类文本数据中提取得到嵌入特征向量。

本实施例中,利用word2vec将待分类文本数据中的词射成一个固定长度的短向量。由于向量的距离代表了词语之间的相似性,可以通过聚类的方法(譬如K-Means)把相似的词语合并到一个维度,重新计算该维度的特征向量权值。相比于传统统计方法,使用词向量能在一定程度保留了文档的信息。此外,Word2Vec作为无监督学习方法的一个实现,能够允许它从无标注的文本进行训练,能进一步提升系统的性能。假设定义词向量的维度是n,定义句子最大限度包含单词数量为m,构成一张m*n的二维矩阵,该二维矩阵即嵌入特征向量。具体地,在得到待分类文本后,将待分类文本的字符长度记为sequence length,通过在字典中查找待分类文本中每个字到对应的字向量,将其转化为sequence length*embedding的矩阵输出,其中,embedding表示字向量的长度。需要说明的是,该字典预先构建。

步骤S102:利用文本分类模型的卷积层对嵌入特征向量进行卷积,得到每个预设维度对应的多个第一卷积特征向量,卷积层包括多个预设维度的卷积核。

需要说明的是,该文本分类模型的卷积层包括有多个预设维度的卷积核,该预设维度是指卷积核的尺寸,例如,假设该文本分类模型包括6个卷积核,尺寸为(2×5)、(3×5)、(4×5),每个尺寸各2个。卷积核卷积的宽度等于文本embedding后的维度,保持不变,因为每个词或字相当于一个最小的单元,不可进一步分割,而卷积核的高度可以自定义,在向下滑动的过程中,通过定义不同的窗口来提取不同的特征向量,而高度的自定义即可得到多个维度的尺寸大小,分别对应不同维度的卷积核。本实施例中,假设该文本分类模型有n个卷积核,每个卷积核是边长为k*embedding长度的矩阵,其中k一般取值为2,3,4,5个字符长度,每个卷积核会对嵌入特征向量按sequence这个方向进行扫描,得到(sequence-k+1)*1长度的第一卷积特征向量。具体地,例如,假设卷积层有12个卷积核,尺寸为(2×5)、(3×5)、(4×5),每个尺寸4个卷积核,对待分类文本的嵌入特征向量进行特征抓取,则得到(2×5)四个卷积核对应的四个第一卷积特征向量、(3×5)四个卷积核对应的四个第一卷积特征向量和(4×5)四个卷积核对应的四个第一卷积特征向量,每个维度的卷积核均对应一组第一卷积特征向量。

步骤S103:利用预先训练得到的每个预设维度的卷积核对应的权重参数对多个第一卷积特征向量进行敏感度优化计算,得到多个第二卷积特征向量。

具体地,在得到每个预设维度的卷积核提取的第一卷积特征向量之后,利用预先训练得到的每个预设维度的卷积核对应的权重参数对多个第一卷积特征向量进行敏感度优化计算。例如,以(2×5)四个卷积核得到四个第一卷积特征向量为例进行说明,假设四个卷积核分别是A、B、C、D,A、B、C、D依次对嵌入特征向量进行扫描,得到四个第一卷积特征向量,再根据预先训练得到的在该(2×5)尺寸的预设维度下,A、B、C、D分别对应的权重参数,利用对应的权重参数对各自对应第一卷积特征向量的值进行优化计算,使得在该尺寸下,数值大的值更大,数值小的值更小,而数值越大,则卷积核越敏感,通过该权重参数的优化计算,使得卷积核敏感的目标特征更能够得到凸显。

步骤S104:利用文本分类模型的池化层选取每个第二卷积特征向量中的最大值并进行拼接,得到池化特征向量。

具体地,在得到敏感度优化后的第二卷积特征向量后,从第二卷积特征向量中选取每个向量的多个值中的最大值,并与其它向第二卷积特征向量的最大值进行拼接,得到池化特征向量。

步骤S105:利用文本分类模型的全连接层根据池化特征向量进行分类预测,得到文本分类结果。

具体地,由全连接层根据池化特征向量对各个类别的预测概率计算,并将分类结果输出,得到文本分类结果。

本发明实施例的文本分类方法基于TextCNN模型来实现,其通过首先进行特征提取,并得到特征向量后,对特征向量进行卷积,得到多个维度第一卷积特征向量,再利用预先训练好的权重参数对读第一卷积特征向量进行敏感度优化,提高卷积层中各个卷积核对自身敏感的特征数据的辨识度,使得卷积层能够准确的抓取目标特征,进而提升最终的预测准确率。

进一步的,如图2所示,本实施例中,该文本分类模型的训练过程包括步骤S201-步骤S206,具体如下:

步骤S201:获取样本数据并按照预设比例将样本数据划分为训练集和测试集。

具体地,该预设比例预先设置,例如训练集比测试集按7:3的比例进行划分。

进一步的,步骤S201之后,还包括:

1、基于每个样本数据对应的真实分类结果对每个样本数据进行标注。

具体地,该真实分类结果即样本数据对应的目标值,该目标值预先获取且与样本数据一一对应。

2、对预先标注的样本数据进行预处理。

具体地,为了提升模型的训练效果以及模型的训练效率,在利用样本数据对模型进行训练之前需要对样本数据进行预处理,以剔除样本数据中不符合模型训练要求的数据,避免影响模型训练的精度。

进一步的,对预先标注的样本数据进行预处理,包括:

2.1、对样本数据进行分词和去停用词处理。

具体地,对于中文而言,中文分词是指将一个由汉字和其他常规字符组成的连续序列,按照中文理解方法,将其划分为单个的词语,在实施过程中可以使用jieba分词工具对文本进行分词。对于英文而言,英文文本可根据每一个单词之间有空格或标点符号隔开,如果不考虑短语,仅以单词作为唯一的语义单元的话,只需要分割单词,去除标点符号,英文还需要考虑大小写转换,一般认为大小写具有不同的意义,因此要求将所有单词的字幕都转换成小写或大写。

停用词是一类普遍存在于文本中的常用词,并且脱离语境它们本身并不具有明显的意义。最常用的词是一些典型的功能词,这些词构成句子的结构,但对于描述文本所表述的意义几乎没有作用,并且容易造成统计偏差,影响机器学习效果,例如,在英文中如“the”、“of”、“for”、“with”、“to”等,在中文中如“啊”、“了”、“并且”、“因此”等。

2.2、统计每一样本数据的文本长度,并计算得到样本数据的平均长度,并结合平均长度截断过长的样本数据或补齐过短的文本数据。

具体地,在对样本数据进行分词和去停用词处理后,统计当前的每个样本数据的文本长度,再计算得到所有样本数据的平均长度,根据该平均长度,对实际长度超过平均长度且达到预设上限阈值的样本数据进行截断处理,对实际长度小于平均长度且达到预设下限阈值样本数据则进行数据补齐操作,通过对样本数据的长度进行调整,使得样本数据的长度比较接近,以避免文本长度过长或过短的样本数量影响模型的训练效果。

步骤S202:输入预先标注的训练集至待训练的文本分类模型,利用文本分类模型的多个预设维度的卷积核进行卷积得到每个预设维度对应的多个第一样本卷积特征。

具体地,将预先标注好的训练集输入至待训练的文本分类模型中,利用文本分类模型的输入层提取得到样本嵌入特征向量,再由卷积层提取得到每个预设维度对应的多个第一样本卷积特征。

步骤S203:基于每个预设维度的卷积核对应的待训练权重参数对多个第一样本卷积特征进行计算,得到多个第二样本卷积特征。

步骤S204:利用文本分类模型的池化层和全连接层进行分类预测,得到样本预测结果。

步骤S205:基于样本预测结果、多个第一样本卷积特征向量和预先构建的目标损失函数反向更新文本分类模型,目标损失函数包括采用多元交叉熵定义的第一损失函数和更新每个预设维度对应的权重参数的第二损失函数。

具体地,在得到样本预测结果后,将该样本预测结果和多个第一样本卷积特征向量输入至预先构建的目标损失函数中,根据目标损失函数值对文本分类模型中每层的待训练参数一同进行训练。该目标损失函数包括采用多元交叉熵定义的第一损失函数和更新每个预设维度的卷积核对应的权重参数的第二损失函数。其中,第一损失函数用于对整个模型的层间参数进行训练,包括有卷积层的权值矩阵、激活函数中的偏置项、softmax函数中的权重矩阵等参数。第二损失函数则是针对预设维度的卷积核对应的权重参数进行训练,以使得训练得到的权重参数能够更好的凸显出各个卷积核对各自敏感度高的特征的偏好。

进一步的,基于样本预测结果、多个第一样本卷积特征向量和预先构建的目标损失函数反向更新文本分类模型的步骤,包括:

根据第一损失函数和样本分类结果对文本分类模型的各层待训练参数进行训练更新,以及根据第二损失函数对每个预设维度对应的待训练权重参数进行训练更新。

进一步的,目标损失函数表示为:

Loss=loss

其中,loss表示目标损失函数,loss

步骤S206:输入预先标注的测试集至训练完成的文本分类模型,且当文本分类模型达到预设预测精准度时,确认文本分类模型已训练好。

本发明实施例中,通过对TextCNN模型的损失函数进行优化,使得优化后的损失函数能够对每个预设维度的各卷积核对应的权重参数进行训练,使得训练后的权重参数能够增强个卷积核对敏感特征的敏感度,同时,本实施例不需要对TextCNN的结构进行改进,只需对损失函数进行优化,即可达到提升模型预测准确率的效果,相比于对TextCNN结构进行改进的方式而言,本实施例的训练时长更短、对样本数据的需求更少、模型的鲁棒性更高。

图3是本发明实施例的文本分类装置的功能模块示意图。如图3所示,该装置30包括提取模块31、卷积模块32、优化模块33、池化模块34和分类模块35。

提取模块31,用于利用预先训练好的文本分类模型的输入层从待分类文本数据中提取得到嵌入特征向量;

卷积模块32,用于利用文本分类模型的卷积层对嵌入特征向量进行卷积,得到每个预设维度对应的多个第一卷积特征向量,卷积层包括多个预设维度的卷积核;

优化模块33,用于利用预先训练得到的每个预设维度的卷积核对应的权重参数对多个第一卷积特征向量进行敏感度优化计算,得到多个第二卷积特征向量;

池化模块34,用于利用文本分类模型的池化层选取每个第二卷积特征向量中的最大值并进行拼接,得到池化特征向量;

分类模块35,用于利用文本分类模型的全连接层根据池化特征向量进行分类预测,得到文本分类结果。

可选地,其还包括训练模块,用于预先训练文本分类模型,包括:获取样本数据并按照预设比例将样本数据划分为训练集和测试集;输入预先标注的训练集至待训练的文本分类模型,利用文本分类模型的多个预设维度的卷积核进行卷积得到每个预设维度对应的多个第一样本卷积特征;基于每个预设维度的卷积核对应的待训练权重参数对多个第一样本卷积特征进行计算,得到多个第二样本卷积特征;利用文本分类模型的池化层和全连接层进行分类预测,得到样本预测结果;基于样本预测结果、多个第一样本卷积特征向量和预先构建的目标损失函数反向更新文本分类模型,目标损失函数包括采用多元交叉熵定义的第一损失函数和更新每个预设维度的卷积核对应的权重参数的第二损失函数;输入预先标注的测试集至训练完成的文本分类模型,且当文本分类模型达到预设预测精准度时,确认文本分类模型已训练好。

可选地,训练模块执行基于样本预测结果、多个第一样本卷积特征向量和预先构建的目标损失函数反向更新文本分类模型的操作,具体包括:根据第一损失函数和样本分类结果对文本分类模型的各层待训练参数进行训练更新,以及根据第二损失函数对每个预设维度对应的待训练权重参数进行训练更新。

可选地,目标损失函数表示为:

Loss=loss

其中,Loss表示目标损失函数,loss

可选地,训练模块执行获取样本数据并按照预设比例将样本数据划分为训练集和测试集的操作之后,还包括:基于每个样本数据对应的真实分类结果对每个样本数据进行标注;对预先标注的样本数据进行预处理。

可选地,训练模块执行对预先标注的样本数据进行预处理的操作,具体包括:对样本数据进行分词和去停用词处理;统计每一样本数据的文本长度,并计算得到样本数据的平均长度,并结合平均长度截断过长的样本数据或补齐过短的文本数据。

可选地,文本分类模型基于TextCNN网络实现。

关于上述实施例文本分类装置中各模块实现技术方案的其他细节,可参见上述实施例中的文本分类方法中的描述,此处不再赘述。

需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

请参阅图4,图4为本发明实施例的计算机设备的结构示意图。如图4所示,该计算机设备60包括处理器61及和处理器61耦接的存储器62,存储器62中存储有程序指令,程序指令被处理器61执行时,使得处理器61执行上述任一实施例所述的文本分类方法。

其中,处理器61还可以称为CPU(Central Processing Unit,中央处理单元)。处理器61可能是一种集成电路芯片,具有信号的处理能力。处理器61还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

参阅图5,图5为本发明实施例的计算机可读存储介质的结构示意图。本发明实施例的计算机可读存储介质存储有能够实现上述所有方法的计算机程序71,其中,该计算机程序71可以以软件产品的形式存储在上述计算机可读存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的计算机可读存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等计算机设备。

在本申请所提供的几个实施例中,应该理解到,所揭露的计算机设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。以上仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

技术分类

06120114722788