掌桥专利:专业的专利平台
掌桥专利
首页

标题文本数据分类方法及装置

文献发布时间:2023-06-19 12:18:04


标题文本数据分类方法及装置

技术领域

本发明涉及人工智能技术领域,尤其涉及标题文本数据分类方法及装置。

背景技术

手机银行APP作为重要对客渠道,在银行数字化转型中发挥着重要的作用。为进一步提升客户体验,手机银行加入了资讯功能,考虑到每天均会产生各种标题文本,为更好地管理标题文本,手机银行需要根据内容对标题文本进行分类。

考虑到资讯数据量,传统单纯依靠人工的方式进行标题文本数据分类成本高昂且效率低下。

因此,亟需一种可以克服上述问题的标题文本数据分类方案。

发明内容

本发明实施例提供一种标题文本数据分类方法,用以进行标题文本数据分类,节省成本,提高分类效率,该方法包括:

获得标题文本数据;

将所述标题文本数据映射到高维空间,得到文本高维特征数据;

将所述文本高维特征数据输入预先训练好的第一卷积神经网络模型,输出多个特征图,其中,所述第一卷积神经网络模型包含多个卷积层,每个卷积层包含多个卷积核,将所述文本高维特征数据分别输入每个卷积层,利用卷积层包含的多个卷积核对所述文本高维特征数据进行滑动卷积处理;

根据所述多个特征图,确定综合特征图;

将所述综合特征图输入预先训练好的第二卷积神经网络模型,输出融合特征数据,其中,所述第二卷积神经网络模型包含多组残差池化结构,所述多组残差池化结构之间链式连接,每组残差池化结构包含残差单元和池化单元,将所述综合特征图输入残差单元,得到残差单元的输出特征图,将残差单元的输出特征图输入池化单元,输出池化后的融合特征数据;

根据所述融合特征数据,进行标题文本数据分类。

本发明实施例提供一种标题文本数据分类装置,用以进行标题文本数据分类,节省成本,提高分类效率,该装置包括:

数据获得模块,用于获得标题文本数据;

数据映射模块,用于将所述标题文本数据映射到高维空间,得到文本高维特征数据;

第一特征提取模块,用于将所述文本高维特征数据输入预先训练好的第一卷积神经网络模型,输出多个特征图,其中,所述第一卷积神经网络模型包含多个卷积层,每个卷积层包含多个卷积核,将所述文本高维特征数据分别输入每个卷积层,利用卷积层包含的多个卷积核对所述文本高维特征数据进行滑动卷积处理;

特征确定模块,用于根据所述多个特征图,确定综合特征图;

第二特征提取模块,用于将所述综合特征图输入预先训练好的第二卷积神经网络模型,输出融合特征数据,其中,所述第二卷积神经网络模型包含多组残差池化结构,所述多组残差池化结构之间链式连接,每组残差池化结构包含残差单元和池化单元,将所述综合特征图输入残差单元,得到残差单元的输出特征图,将残差单元的输出特征图输入池化单元,输出池化后的融合特征数据;

数据分类模块,用于根据所述融合特征数据,进行标题文本数据分类。

本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述标题文本数据分类方法。

本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述标题文本数据分类方法的计算机程序。

本发明实施例通过获得标题文本数据;将所述标题文本数据映射到高维空间,得到文本高维特征数据;将所述文本高维特征数据输入预先训练好的第一卷积神经网络模型,输出多个特征图,其中,所述第一卷积神经网络模型包含多个卷积层,每个卷积层包含多个卷积核,将所述文本高维特征数据分别输入每个卷积层,利用卷积层包含的多个卷积核对所述文本高维特征数据进行滑动卷积处理;根据所述多个特征图,确定综合特征图;将所述综合特征图输入预先训练好的第二卷积神经网络模型,输出融合特征数据,其中,所述第二卷积神经网络模型包含多组残差池化结构,所述多组残差池化结构之间链式连接,每组残差池化结构包含残差单元和池化单元,将所述综合特征图输入残差单元,得到残差单元的输出特征图,将残差单元的输出特征图输入池化单元,输出池化后的融合特征数据;根据所述融合特征数据,进行标题文本数据分类。本发明实施例首先将标题文本数据映射到高维空间,得到映射后的文本高维特征数据,使得语义信息相同的空间距离将变小,语义信息差异大的空间距离将变大,利于后续特征提取和分类,然后利用第一卷积神经网络模型得到综合特征图后,输入预先训练好的第二卷积神经网络模型,第二卷积神经网络模型包含多组残差池化结构,多组残差池化结构之间链式连接,池化单元既可以提取文本中最重要的信息,又可以充分考虑文本中的所有信息,信息提取能力更强,残差单元则对特征进一步进行特征提取,通过连续卷积,可以提取不同距离上文本间的语义信息,越往后的层每个位置融合的信息越多,最后一层提取的就是整个序列的语义信息,进一步提升了性能,从而有效提高分类的准确性,节省成本,提高分类效率。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:

图1为本发明实施例中标题文本数据分类方法示意图;

图2为本发明实施例中将标题文本数据映射到高维空间方法示意图;

图3为本发明实施例中得到残差单元输出特征图方法示意图;

图4为本发明实施例中得到池化后的融合特征数据方法示意图;

图5为本发明实施例中标题文本数据分类装置结构图;

图6是本发明实施例的计算机设备结构示意图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。

为了进行标题文本数据分类,节省成本,提高分类效率,本发明实施例提供一种标题文本数据分类方法,如图1所示,该方法可以包括:

步骤101、获得标题文本数据;

步骤102、将所述标题文本数据映射到高维空间,得到文本高维特征数据;

步骤103、将所述文本高维特征数据输入预先训练好的第一卷积神经网络模型,输出多个特征图,其中,所述第一卷积神经网络模型包含多个卷积层,每个卷积层包含多个卷积核,将所述文本高维特征数据分别输入每个卷积层,利用卷积层包含的多个卷积核对所述文本高维特征数据进行滑动卷积处理;

步骤104、根据所述多个特征图,确定综合特征图;

步骤105、将所述综合特征图输入预先训练好的第二卷积神经网络模型,输出融合特征数据,其中,所述第二卷积神经网络模型包含多组残差池化结构,所述多组残差池化结构之间链式连接,每组残差池化结构包含残差单元和池化单元,将所述综合特征图输入残差单元,得到残差单元的输出特征图,将残差单元的输出特征图输入池化单元,输出池化后的融合特征数据;

步骤106、根据所述融合特征数据,进行标题文本数据分类。

由图1所示可以得知,本发明实施例通过获得标题文本数据;将所述标题文本数据映射到高维空间,得到文本高维特征数据;将所述文本高维特征数据输入预先训练好的第一卷积神经网络模型,输出多个特征图,其中,所述第一卷积神经网络模型包含多个卷积层,每个卷积层包含多个卷积核,将所述文本高维特征数据分别输入每个卷积层,利用卷积层包含的多个卷积核对所述文本高维特征数据进行滑动卷积处理;根据所述多个特征图,确定综合特征图;将所述综合特征图输入预先训练好的第二卷积神经网络模型,输出融合特征数据,其中,所述第二卷积神经网络模型包含多组残差池化结构,所述多组残差池化结构之间链式连接,每组残差池化结构包含残差单元和池化单元,将所述综合特征图输入残差单元,得到残差单元的输出特征图,将残差单元的输出特征图输入池化单元,输出池化后的融合特征数据;根据所述融合特征数据,进行标题文本数据分类。本发明实施例首先将标题文本数据映射到高维空间,得到映射后的文本高维特征数据,使得语义信息相同的空间距离将变小,语义信息差异大的空间距离将变大,利于后续特征提取和分类,然后利用第一卷积神经网络模型得到综合特征图后,输入预先训练好的第二卷积神经网络模型,第二卷积神经网络模型包含多组残差池化结构,多组残差池化结构之间链式连接,池化单元既可以提取文本中最重要的信息,又可以充分考虑文本中的所有信息,信息提取能力更强,残差单元则对特征进一步进行特征提取,通过连续卷积,可以提取不同距离上文本间的语义信息,越往后的层每个位置融合的信息越多,最后一层提取的就是整个序列的语义信息,进一步提升了性能,从而有效提高分类的准确性,节省成本,提高分类效率。

实施例中,获得标题文本数据;将所述标题文本数据映射到高维空间,得到文本高维特征数据。

本实施例中,如图2所示,按如下方式将所述标题文本数据映射到高维空间:

步骤201、根据预先建立的词典,对标题文本数据进行独热编码处理,得到对应的文字向量;

步骤202、将所述文字向量输入预先训练好的神经网络模型中,输出文本高维特征数据。

具体实施时,假设标题文本类型为K,文本条数为N条,每条文本长度限制为L,则输入数据维度为[N,L]。预先建立的词典,设词典总数为I=total(dict),词典是由多个文字、符号组成的词库;映射特征的维度为M,用于完成映射过程的神经网络模型共有3层,输入层、隐层和输出层。输入层神经元数量为I,隐层神经元数量为M,输出层神经元数量为I。利用输入的标题文本数据对该神经网络进行训练,训练过程如下:1)训练数据为输入文本中的每个文字,以词典为基础对文字进行独热编码处理,得到对应的文字向量;2)选择文本中的某个文字,神经网络模型输入数据为该文字经过独热编码后的文字向量,其维度为I;3)该输入数据对应的标签为其相邻(前后相邻)文字的独热编码文字向量,维度为I;4)利用上述数据对神经网络进行训练;5)对输入文本中的所有文字同时进行2)、3)、4)步操作,得到训练好的神经网络模型。神经网络模型训练完成后,对于一个新输入的标题文本数据,只需要将其以训练神经网络的词典为基础进行独热编码,而后将其输入神经网络模型中,通过输入层和隐层进行计算后,即可得到映射后的特征。这里只需要利用输入层和隐层对输入文本进行处理即可,无需经过输出层处理。维度为[N,L]的输入数据经过上述映射后,得到数据维度为[N,L,M]的文本高维特征数据。将标题文本信息通过词向量的形式映射到高维空间,映射后的文本数据语义信息相同的空间距离将变小,语义信息差异大的空间距离将变大,进而利于后续特征提取和分类。

将标题文本数据映射到高维空间的目的是:1、提升计算效率,数据最开始输入的时候采用one-hot独热编码方式,这导致每个输入的维度将等于词典维度,当词典非常大时,每个数据的维度将非常多,数据量非常大,这会极大程度降低运算效率;2、将输入的低维稀疏向量透射为一个高维稠密向量,进一步提取特征;3、相似语义的文本在被映射到高维空间后,其距离会比较相近,语义差别较大的文本距离会变大,进而实现将相似特征合并,将不同特征的差异性放大。

实施例中,将所述文本高维特征数据输入预先训练好的第一卷积神经网络模型,输出多个特征图,其中,所述第一卷积神经网络模型包含多个卷积层,每个卷积层包含多个卷积核,将所述文本高维特征数据分别输入每个卷积层,利用卷积层包含的多个卷积核对所述文本高维特征数据进行滑动卷积处理;根据所述多个特征图,确定综合特征图。

本实施例中,按如下方式对用于训练第一卷积神经网络模型的标题文本数据进行预处理:获得用于训练的标题文本数据,对标题文本数据中不完整的信息进行剔除并根据标题内容进行标签标注。

具体实施时,以第一卷积神经网络模型包含3个卷积层、每个卷积层中包含200个卷积核为例进行介绍。利用3个卷积层对文本进行处理提取文本特征,这里共有3个卷积层,每个卷积层中包含了200个卷积核,每个卷积核尺寸为[M,3]。对于第一个卷积层,经过映射的数据交换第二个和第三个维度后,输入到第一个卷积核中,其维度为[N,M,L],分别利用200个卷积核对该输入进行卷积处理,卷积核沿地三个维度进行滑动,滑动步长为1,每个卷积核在卷积完成后得到经过卷积后的文本特征。200个卷积核完成卷积操作后,得到的文本特征维度为[N,200,L-2];对于第二个卷积层和第三个卷积层,其输入均为映射后维度为[N,L,M]的输入,每个卷积层包含的卷积核数均为200,尺寸均为[M,3],对2个卷积层重复上述计算操作,分别得到2个维度为[N,200,L-2]的输出。将3个卷积层卷积后得到的维度为[N,200,L-2]的3个特征图逐元素相加并求均值,得到综合特征图。

实施例中,将所述综合特征图输入预先训练好的第二卷积神经网络模型,输出融合特征数据,其中,所述第二卷积神经网络模型包含多组残差池化结构,所述多组残差池化结构之间链式连接,每组残差池化结构包含残差单元和池化单元,将所述综合特征图输入残差单元,得到残差单元的输出特征图,将残差单元的输出特征图输入池化单元,输出池化后的融合特征数据。

本实施例中,如图3所示,所述残差单元包含两个卷积层,每个卷积层包含多个卷积核;

将所述综合特征图输入残差单元,得到残差单元的输出特征图,包括:

步骤301、将所述综合特征图输入残差单元的第一个卷积层,利用第一个卷积层包含的多个卷积核对所述综合特征图进行滑动卷积处理,得到第一卷积结果;

步骤302、将得到的第一卷积结果输入第二个卷积层,利用第二个卷积层包含的多个卷积核对第一卷积结果进行滑动卷积处理,得到第二卷积结果;

步骤303、根据综合特征图和第二卷积结果,确定残差单元的输出特征图。

本实施例中,如图4所示,所述池化单元包含最大值池化单元和均值池化单元;

将残差单元的输出特征图输入池化单元,输出池化后的融合特征数据,包括:

步骤401、将残差单元的输出特征图分别输入最大值池化单元和均值池化单元,得到最大值池化结果和均值池化结果;

步骤402、根据所述最大值池化结果和均值池化结果,确定池化后的融合特征数据。

实施例中,根据所述融合特征数据,进行标题文本数据分类。

本实施例中,根据所述融合特征数据,进行标题文本数据分类,包括:

将所述融合特征数据输入预先训练好的全连接层网络模型,进行标题文本数据分类。

具体实施时,将综合特征图输入预先训练好的第二卷积神经网络模型,输出融合特征数据,通过残差池化结构对特征进行池化,池化单元后的结果维度为输入维度的一半。在整个第二卷积神经网络模型中,包含多组残差池化结构,多组残差池化结构之间链式连接,所有残差池化结构中的卷积层均由200个尺寸为3的卷积核构成,且每个卷积核的滑动步长为1。以第一组残差池化结构为例对计算过程进行说明,对于第一组残差池化结构,其输入为经过3个卷积层卷积后维度为[N,200,L-2]的综合特征图,该残差池化结构计算过程如下:1)将综合特征图输入到残差单元中的第一个卷积层中,该层包括200个[200,3]尺度的卷积核,利用这些卷积核沿数据第三个维度进行滑动卷积后,得到维度为[N,200,L-2]的第一卷积结果;2)将第一个卷积层输出的第一卷积结果输入到残差单元中的第二个卷积层中,该层包括200个[200,3]尺度的卷积核,利用这些卷积核沿数据第三个维度进行滑动卷积后,得到维度为[N,200,L-2]的第二卷积结果;3)将残差池化结构的维度为[N,200,L-2]的输入特征(综合特征图)与残差单元第二个卷积层输出的维度为[N,200,L-2]的输出特征(第二卷积结果)相加,得到残差单元的输出特征图;4)将残差单元输出的维度为[N,200,L-2]的特征图输入到池化单元中,对该输入沿第三个维度进行最大值池化,提取特征中最重要的特征,池化步长为2,得到维度为[N,200,(L-2)/2]的最大值池化结果;5)将残差单元输出的维度为[N,200,L-2]的特征图输入到池化单元中,对该输入沿第三个维度进行均值池化,提取所有特征信息,池化步长为2,得到维度为[N,200,(L-2)/2]的均值池化结果;6)将4)和5)得到的输出相加,得到池化单元最终的维度为[N,200,(L-2)/2]的输出特征;之后,重复残差池化结构直到文本中每个文字特征维度变为1。具体操作为,在第一组残差池化结构后面再接一组残差池化结构。其中,残差单元和池化单元结构、参数均与第一组残差池化结构一致。前一组残差池化结构的输出作为后一组残差池化结构的输入。对于第二组残差池化结构,其输入为第一组残差池化结构输出的维度为[N,200,(L-2)/2]的文本特征。对该特征重复第一组残差池化结构的计算过程,最终得到维度为[N,200,(L-2)/4]的输出;将该输出作为第三组残差池化结构的输入,重复上述操作,直到第(L-2)/2个残差池化结构为止,该模块最终输出文本特征维度为[N,200,1]的融合特征数据。残差池化结构中,池化单元对提取的文本特征分别进行最大值池化和均值池化,并将得到的2个结果进行拼接后得到最终的特征,这种方式既可以提取文本中最重要的信息,又可以充分考虑文本中的所有信息,信息提取能力更强;残差单元则对特征进一步进行特征提取,通过这样的连续卷积,可以提取不同距离上文本间的语义信息,越往后的层,每个位置融合的信息越多,最后一层提取的就是整个序列的语义信息,进一步提升了性能。对于上述搭建的模型,利用训练数据对模型进行训练后,将训练好的模型用于测试新的新闻资讯数据的分类结果。

本发明实施例既可以提取文本中最重要的信息,又可以充分考虑文本中的所有信息,对特征进一步进行特征提取,通过这样的连续卷积,可以提取不同距离上文本间的语义信息,越往后的层,每个位置融合的信息越多,最后一层提取的就是整个序列的语义信息,进一步提升了性能。通过卷积核提取文本特征,用法简单、使用便捷、高效,可节约大量时间成本、人力成本;使用中的数据处理机制可以充分提取文本中的特征,信息利用率更高,准确率更高。

基于同一发明构思,本发明实施例还提供了一种标题文本数据分类装置,如下面的实施例所述。由于这些解决问题的原理与标题文本数据分类方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。

图5为本发明实施例中标题文本数据分类装置的结构图,如图5所示,该装置包括:

数据获得模块501,用于获得标题文本数据;

数据映射模块502,用于将所述标题文本数据映射到高维空间,得到文本高维特征数据;

第一特征提取模块503,用于将所述文本高维特征数据输入预先训练好的第一卷积神经网络模型,输出多个特征图,其中,所述第一卷积神经网络模型包含多个卷积层,每个卷积层包含多个卷积核,将所述文本高维特征数据分别输入每个卷积层,利用卷积层包含的多个卷积核对所述文本高维特征数据进行滑动卷积处理;

特征确定模块504,用于根据所述多个特征图,确定综合特征图;

第二特征提取模块505,用于将所述综合特征图输入预先训练好的第二卷积神经网络模型,输出融合特征数据,其中,所述第二卷积神经网络模型包含多组残差池化结构,所述多组残差池化结构之间链式连接,每组残差池化结构包含残差单元和池化单元,将所述综合特征图输入残差单元,得到残差单元的输出特征图,将残差单元的输出特征图输入池化单元,输出池化后的融合特征数据;

数据分类模块506,用于根据所述融合特征数据,进行标题文本数据分类。

一个实施例中,所述残差单元包含两个卷积层,每个卷积层包含多个卷积核;

第二特征提取模块505进一步用于:

将所述综合特征图输入残差单元的第一个卷积层,利用第一个卷积层包含的多个卷积核对所述综合特征图进行滑动卷积处理,得到第一卷积结果;

将得到的第一卷积结果输入第二个卷积层,利用第二个卷积层包含的多个卷积核对第一卷积结果进行滑动卷积处理,得到第二卷积结果;

根据综合特征图和第二卷积结果,确定残差单元的输出特征图。

一个实施例中,所述池化单元包含最大值池化单元和均值池化单元;

第二特征提取模块505进一步用于:

将残差单元的输出特征图分别输入最大值池化单元和均值池化单元,得到最大值池化结果和均值池化结果;

根据所述最大值池化结果和均值池化结果,确定池化后的融合特征数据。

一个实施例中,数据映射模块502进一步用于:

根据预先建立的词典,对标题文本数据进行独热编码处理,得到对应的文字向量;

将所述文字向量输入预先训练好的神经网络模型中,输出文本高维特征数据。

一个实施例中,数据分类模块506进一步用于:

将所述融合特征数据输入预先训练好的全连接层网络模型,进行标题文本数据分类。

综上所述,本发明实施例通过获得标题文本数据;将所述标题文本数据映射到高维空间,得到文本高维特征数据;将所述文本高维特征数据输入预先训练好的第一卷积神经网络模型,输出多个特征图,其中,所述第一卷积神经网络模型包含多个卷积层,每个卷积层包含多个卷积核,将所述文本高维特征数据分别输入每个卷积层,利用卷积层包含的多个卷积核对所述文本高维特征数据进行滑动卷积处理;根据所述多个特征图,确定综合特征图;将所述综合特征图输入预先训练好的第二卷积神经网络模型,输出融合特征数据,其中,所述第二卷积神经网络模型包含多组残差池化结构,所述多组残差池化结构之间链式连接,每组残差池化结构包含残差单元和池化单元,将所述综合特征图输入残差单元,得到残差单元的输出特征图,将残差单元的输出特征图输入池化单元,输出池化后的融合特征数据;根据所述融合特征数据,进行标题文本数据分类。本发明实施例首先将标题文本数据映射到高维空间,得到映射后的文本高维特征数据,使得语义信息相同的空间距离将变小,语义信息差异大的空间距离将变大,利于后续特征提取和分类,然后利用第一卷积神经网络模型得到综合特征图后,输入预先训练好的第二卷积神经网络模型,第二卷积神经网络模型包含多组残差池化结构,多组残差池化结构之间链式连接,池化单元既可以提取文本中最重要的信息,又可以充分考虑文本中的所有信息,信息提取能力更强,残差单元则对特征进一步进行特征提取,通过连续卷积,可以提取不同距离上文本间的语义信息,越往后的层每个位置融合的信息越多,最后一层提取的就是整个序列的语义信息,进一步提升了性能,从而有效提高分类的准确性,节省成本,提高分类效率。

基于前述发明构思,如图6所示,本发明还提出了一种计算机设备600,包括存储器610、处理器620及存储在存储器610上并可在处理器620上运行的计算机程序630,所述处理器620执行所述计算机程序630时实现前述标题文本数据分类方法。

基于前述发明构思,本发明提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现前述标题文本数据分类方法。

本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

相关技术
  • 标题文本数据分类方法及装置
  • 一种基于深度学习的文本数据分类方法和装置
技术分类

06120113240528