掌桥专利:专业的专利平台
掌桥专利
首页

一种文本分类方法、系统、计算机设备和存储介质

文献发布时间:2023-06-19 10:19:37


一种文本分类方法、系统、计算机设备和存储介质

技术领域

本发明涉及文本分类技术领域,特别是涉及一种基于高低阶图卷积网络的文本分类方法、系统、计算机设备和存储介质。

背景技术

随着互联网技术的迅猛发展,各类社交平台、技术交流平台和购物平台等都得到了快速发展,海量的文本数据信息也就不断产生,并因为其存在着超高价值的数据信息而成为大数据挖掘研究所热衷对象,文本分类在信息处理中地位也就越来越重要。研究者们都希望采用有效的文本分类方法对文本数据中的有用信息进行高效的管理、提取、分析为企业或社会发展提供有力的支撑。

目前,文本分类的技术已从早期的依赖语言学专家的先验知识的人工分类发展到深度机器学习,如以卷积神经网络(CNN)和循环神经网络(RNN)为代表的深度学习模型被广泛应用于文本分类任务,但这些模型可能会忽略在语料库中的全局单词共现信息,而这些信息携带中非连续的和长距离的语义信息对文件分类结果有着重要的影响。虽然现有的图卷积神经网络能处理任何结构的数据和捕捉全局单词共现信息,可以有效学习具有丰富关系的文本图网络以及在图嵌入时保护图的全局结构信息,但是现有的图卷积神经网络一般只有两层,这种浅层机制限制了感受野的规模和模型的表达能力,而多层(>2层)的网络又会使不同类的文本节点值趋于一个固定值进而带来过平滑问题。那么如何在延续现有图卷积网络进行文本分类优势的基础上,解决图卷积网络应用时的出现过平滑问题的同时,又能够增加分类模型的感受野,从而提高模型的表达能力和文本分类任务的精度是有重要意义的。

发明内容

本发明的目的是为了解决目前图卷积网络应用于文本分类时出现的过平滑和限制模型感受野的问题,进而提高文本分类模型的表达能力和文本分类任务的精度。

为了实现上述目的,有必要针对上述技术问题,提供了一种文本分类方法、系统、计算机设备和存储介质。

第一方面,本发明实施例提供了一种文本分类方法,所述方法包括以下步骤:

建立高低阶图卷积神经网络模型;所述高低阶图卷积神经网络模型依次包括输入层、高低阶图卷积层、信息融合层、一阶图卷积层、以及输出层;

获取采用所述高低阶图卷积神经网络模型进行文本分类的语料集;所述语料集包括多个样本,每个样本包含文档和标题;

对所述语料集进行预处理,得到训练集和测试集;

根据所述训练集和测试集分别构建训练集文本图网络和测试集文本图网络;

将所述训练集文本图网络输入到高低阶图卷积神经网络模型,结合损失函数进行训练,得到文本分类模型;

将所述测试集文本图网络输入到所述文本分类模型中进行测试,得到分类结果。

进一步地,所述高低阶图卷积神经网络模型的输出为Z,则:

其中X是图的输入矩阵,w

进一步地,所述高低阶图卷积层包括基于权重共享的一阶图卷积到k阶图卷积;所述高低阶图卷积层的阶数k为二阶及其以上阶数中的一种、或者任意复数种阶数的组合。

进一步地,所述信息融合层采用最小值取反信息融合池化,其实现步骤包括:

根据所述输入矩阵X、参数矩阵w

对所述最小值矩阵的每个元素值取反,得到池化后的图特征矩阵。

进一步地,所述对所述语料集进行预处理,得到训练集和测试集的步骤包括:

对所述语料集中各样本的标题和文档进行去重、分词,以及去除停止词和特殊符号的预处理,得到语料集单词,并将所述语料集单词和文档组成语料文本组;

将所述语料文本组按数量比例划分为训练集和测试集。

进一步地,所述根据所述训练集和测试集分别构建训练集文本图网络和测试集文本图网络的步骤包括:

根据所述训练集和测试集分别建立特征矩阵为对应维数单位矩阵的训练集文本图和测试集文本图;

根据TF-IDF算法和PMI算法确定所述训练集文本图和测试集文本图的邻接矩阵。

进一步地,所述根据TF-IDF算法和PMI算法确定所述训练集文本图和测试集文本图的邻接矩阵的步骤包括:

根据所述TF-IDF算法计算所述训练集文本图的邻接矩阵中的文档节点和单词节点连接边的权重,并根据所述PMI算法计算所述训练集文本图的邻接矩阵中的单词节点与单词节点连接边的权重;

以及根据所述TF-IDF算法计算所述测试集文本图的邻接矩阵中的文档节点和单词节点连接边的权重,并根据所述PMI算法计算所述测试集文本图的单词节点与单词节点连接边的权重。

第二方面,本发明实施例提供了一种文本分类系统,所述系统包括:

建立分类模型模块,用于建立高低阶图卷积神经网络模型;所述高低阶图卷积神经网络模型依次包括输入层、高低阶图卷积层、信息融合层、一阶图卷积层、以及输出层;

获取分类语料模块,用于获取采用所述高低阶图卷积神经网络模型进行文本分类的语料集;所述语料集包括多个样本,每个样本包含文档和标题;

语料集预处理模块,用于对所述语料集进行预处理,得到训练集和测试集;

构建文本图网络模块,用于根据所述训练集和测试集分别构建训练集文本图网络和测试集文本图网络;

文本分类模型训练模块,用于将所述训练集文本图网络输入到高低阶图卷积神经网络模型,结合损失函数进行训练,得到文本分类模型;

文本分类测试模块,用于将所述测试集文本图网络输入到所述文本分类模型中进行测试,得到分类结果。

第三方面,本发明实施例还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。

第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。

上述本申请提供了一种文本分类方法、系统、计算机设备和存储介质,通过所述方法,实现了采用TF-IDF算法和PMI算法对预处理过后的语料集进行训练集文本图网络和测试集文本图网络的构建后,将训练集文本图网络输入到具有输入层、1个高低阶图卷积层、1个信息融合层、1个一阶图卷积层,以及softmax函数输出层的高低阶图卷积神经网络模型,结合定义的损失函数进行训练确定分类模型参数矩阵,并依此对测试集文本进行精确分类的效果。与现有技术相比,该方法在文本分类的应用上,在保证文本分类效率和分类效果的同时,还通过构建两层网络结构模型和利用高低阶图卷积捕捉节点的多阶邻域信息的方法分别解决了目前图卷积网络应用于文本分类时出现的计算复杂、参数量大、过平滑和限制模型感受野的问题,进一步提高文本分类模型的表达能力、模型的稳定性,及文本分类任务的精度。

附图说明

图1是本发明实施例中文本分类方法的流程示意图;

图2是图1中高低阶图卷积神经网络模型结构示意图;

图3是图1中步骤S13的语料集预处理的流程示意图;

图4是图1中步骤S14根据训练集和测试集构建对应文本图网络的流程示意图;

图5是采用图4中的方法基于OH的部分数据创建文本图网络的示意图;

图6是图4中步骤S142根据TF-IDF算法和PMI算法构建文本图邻接矩阵的流程示意图;

图7是本发明实施例中文本分类系统的结构示意图;

图8是本发明实施例中计算机设备的内部结构图。

具体实施方式

为了使本申请的目的、技术方案和有益效果更加清楚明白,下面结合附图及实施例,对本发明作进一步详细说明,显然,以下所描述的实施例是本发明实施例的一部分,仅用于说明本发明,但不用来限制本发明的范围。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明提供的文本分类方法,可以应用于终端或服务器上,其所采用的高低阶图卷积神经网络模型(NMGC)是对现有图卷积网络模型的改进,还可以完成其他类似的全监督分类任务,本申请优选的采用文本语料库进行训练和测试。

在一个实施例中,如图1所示,提供了一种文本分类方法,包括以下步骤:

S11、建立高低阶图卷积神经网络模型;所述高低阶图卷积神经网络模型包括输入层、高低阶图卷积层、信息融合层、一阶图卷积层、以及输出层;

其中,高低阶图卷积神经网络模型中的高低阶图卷积层和一阶图图卷积层均为1个。设高低阶图卷积神经网络模型的输出为Z,则:

其中X是图的输入矩阵,w

本实施例中的高低图卷积层包括基于权重共享的一阶图卷积到k阶图卷积,即

当k=3时,即采用的模型为1阶、2阶和3阶邻域混合的NMGC-3模型,公式如下:

当k=n时,即采用的模型为1阶到n阶邻域混合的NMGC-n模型,公式如下:

在上述模型中同一图卷积层的各阶邻域均采用相同权重参数,来实现权重共享和降低参数量,具体体现在公式(1)-(4)中参数W1和W2的选择。

在实际应用于大规模的文本图网络训练时,需要先计算出

S12、获取采用所述高低阶图卷积神经网络模型进行文本分类的语料集;所述语料集包括多个样本,每个样本包含文档和标题;

其中,文本分类语料库的选择可以根据实际需要进行搜集,本申请中采用Reuters21578的R52和R8、20-Newsgroups(20NG)、Ohsumed(OH)以及Movie Review(MR)的监督文本数据集,数据集的具体信息如下:20NG数据集包括18846个新闻组文档,不含重复的文档,被划分为20种不同的类,在所有的新闻组文档中,11314个文档是用于训练,而剩下的7532个文档被作为测试集;OH数据集是来自MEDLINE数据库的一个医学数据集,选择7400个医学文档,其中3357个文档被用来训练,而剩下的4043个文档被当作测试集,共划分23种不同的类。R52和R8是Reuters 21578的两个子集,被分别划分为52、8种不同的类,其中R52数据集的训练文档和测试文档的数量分别为6532和2568,R8数据集的训练文档和测试文档的数量分别为5485和2189。MR是一个电影评论数据集,共10662个评论文档,积极的评论文档和否定的评论文档数各占一半,每个文档都只含一句话,将7108个评论文档用作训练和3554个评论文档用作测试。上述数据训练集中的10%的数据会用作验证,监督文本数据集的具体信息如表1所示。

表1监督文本数据集

S13、对所述语料集进行预处理,得到训练集和测试集;

其中,所述对所述语料集进行预处理,得到训练集和测试集的步骤S13包括,如图3所示:

S131、对所述语料集中各样本的标题和文档进行去重、分词,以及去除停止词和特殊符号的预处理,得到语料集单词,并将所述语料集单词和文档组成语料文本组;

其中,网络搜集的语料集都只包括文档和标题,而实际的文本数据处理时更多的会依赖文档和标题中的单词,因此在模型训练之前都要进行一定的预处理,可以采用通过现有的python nltk的等工具结合使用者自己的需要定制分词逻辑,对语料集中各样本的标题和文本篇章进行分词操作,去除停止词和特殊符号等预处理,进而得到语料集中的单词,将得到的语料集单词和文档组成语料文本组用于后续的分析使用。

S132、将所述语料文本组按数量比例划分为训练集和测试集。

其中,在使用语料文本组进行图卷积模型的训练时,都需要将搜集的数据根据需求按照一定的数量比例划分为训练集和测试集,训练集用于对模型的参数进行训练和优化确定最终模型,测试集直接使用确定的模型进行分类。

S14、根据所述训练集和测试集分别构建训练集文本图网络和测试集文本图网络;

S15、将所述训练集文本图网络输入到高低阶图卷积神经网络模型,结合损失函数进行训练,得到文本分类模型;

其中,模型训练中使用的损失函数为:

x

将训练集文本图的特征矩阵和正则化邻接矩阵作为输入矩阵输入到高低阶图卷积神经网络模型中进行训练学习时,

通过梯度下降法更新学习图卷积的参数初步确定文本分类的模型,再使用训练集中预留的10%的验证集传入模型并结合定义的损失函数对参数进行调整,最终得到稳定的文本分类模型,再用于测试测试集得到分类结果,很好的保证了分类模型的分类精度。

S16、将所述测试集文本图网络输入到所述文本分类模型中进行测试,得到分类结果。

本申请实施例中,首先基于模型的泛化能力考虑,在分类模型的训练时采用的上述文本分类的重要基准数据集进行参数训练,且由于该数据集不具有重复数据,一定程度上能够减少模型训练的工作量,提高模型训练的效率;其次,建立了只有两层图卷积的高低图卷积网络模型模型,在一定程度上减少训练参数的同时,还减少了训练模型的过平滑现象,从而提高了训练得到的分类模型的普适性。

在一个实施例中,本发明(1)式中的信息融合层采用最小值取反信息融合池化,其具体计算的方法如下:

根据所述输入矩阵X、参数矩阵w

对所述最小值矩阵H

以一个具体的三阶实施例来说明上述本实施例中的信息融合方式,高阶的情况类似。假设邻域的阶数K=3,假设其一阶领域为H

(1)

(2)对H

本实施例基于NMPooling的高低阶图卷积算法实现过程如下:

输入:

卷积运算:

信息融合:H

非线性激活:H=RELU(H

本实施例中文本图网络先输入到高低阶图卷积进行上述的算法处理,再使用NMPooling信息融合来混合不同邻域的一阶到高阶特征,经过非线性激活后输入到经典的一阶图卷积进一步学习文本图的表示,最终得到分类概率结果的方法,能够在学习过程中保留更多更丰富的特征信息进行全局图拓扑的学习,进而很好地提升学习的效果。

在一个实施例中,如图4所示,所述根据所述训练集和测试集分别构建训练集文本图网络和测试集文本图网络的步骤S14包括:

S141、根据所述训练集和测试集分别建立特征矩阵为对应维数单位矩阵的训练集文本图和测试集文本图;

在文本分类训练中,将文本语料集转换为对应的文本图是进行机器训练的必要步骤。本实施例中训练集文本图和测试集文本图都是高低阶图卷积神经网络模型的必要输入,需要基于训练集和测试集的文本数据,分别建立对应的文本图,如训练集文本图G=(V,E),其中V是训练集文本的所有单词和所有文档组成的顶点集,即文本图网络中的节点的数量是文档的数量加上单词的数量,也就是实际语料库的大小和词汇量之和,E是包含训练集中两个单词之间及单词和文档之间所有依赖关系的边集,类似的可以得到测试集的文件图。

如图5所示,对Ohsumed的一部分语料库建立文本图网络,以“O”开头的节点是文档节点,其它的节点是单词节点,灰色线表示单词和单词之间的边,黑色线则表示文档和单词之间的边,相同颜色的文档节点属于同一类,不同颜色的文档节点属于不同的类。本实施例中,将训练集文本图和测试集文本图对应的特征矩阵都设为对应维数的单位矩阵,也就是说对每个单词和文档用one-hot编码作为模型输入。

S142、根据TF-IDF算法和PMI算法确定所述训练集文本图和测试集文本图的邻接矩阵。

其中,文本图的邻接矩阵包括单词与文档边的权重,单词与单词边的权重,及文档与文档边的权重。本实施例中通过单词在文档中出现次数来建立单词和文档之间的边,单词和单词之间的边通过词共现来建立。

如图6所示,所述根据TF-IDF算法和PMI算法确定所述训练集文本图和测试集文本图的邻接矩阵的步骤S142包括:

S1421、根据所述TF-IDF算法计算所述训练集文本图的邻接矩阵中的文档节点和单词节点连接边的权重,并根据所述PMI算法计算所述训练集文本图的邻接矩阵中的单词节点与单词节点连接边的权重;

S1422、以及根据所述TF-IDF算法计算所述测试集文本图的邻接矩阵中的文档节点和单词节点连接边的权重,并根据所述PMI算法计算所述测试集文本图的单词节点与单词节点连接边的权重。

其中,根据词频-逆文档频率(TF-IDF)计算文档节点和单词节点连接边的权重。词频(TF)表示给定单词在文档出现的次数,词频的值越大说明给定的单词对文档的贡献度越大,如果词频的值较小,则说明给定的单词对文档的贡献度较低,甚至没有贡献度。词频的表达式如下:

tf

其中n

idf

其中D是语料库中所有的文档数,{k:t

TF-IDF通过TF考虑了给定单词对某个文档的影响,又利用IDF刻画了给定单词对整个文档的重要程度,被定义为词频和逆文档频率之积,计算公式如下:

TF-IDF=TF*IDF。

为了利用全局词共现信息,对语料库中的所有文档设置一个固定大小的滑动窗口来聚集共现特征。本实施例利用PMI算法来来衡量词与词之间的相关性,计算两个单词节点之间的权重,单词j和单词k的PMI值被定义为:

PMI(j,k)=log p(j,k)/p(j)p(k),

其中,p(j,k)=W(j,k)/W,p(j)=W(j)/W,W(j,k)表示含单词j和单词k的滑窗数,W表示滑窗总数,W(j)表示含词j的滑窗数。PMI的值越大,则单词j和单词k的语义相关性就越强,PMI的值越小,则单词j和单词k的语义相关性就越弱,当PMI值为负时,单词j和单词k之间的相关性非常弱或者没有相关性。因此建立单词之间的边只考虑了PMI值为正的情况。

综上,本实施例中文本图对应的邻接矩阵中的元素值,即构建文本图网络边的权重被定义如下:

在构建好训练集文本图网络后,将该图的特征矩阵和邻居矩阵传入高低阶图卷积神经网络模型中进行训练。

本实施例中在将训练集和测试集文本语料集转换为对应的文本图后,采用TF-IDF算法和PMI算法来确定文本图对应的邻接矩阵的方法,既捕捉了全局单词共现信息,又考虑了文档的区分能力,从而给出描述文本图信息准确度较高的权重关系,进而提高模型训练效果的同时,也提高了模型分类的精度。

本申请实施例中基于监督文本数据集R52和R8、20NG、OH,以及MR进行分类测试发现,当k=2和k=3的高低阶图卷积神经网络模型在文本分类任务中,在分类精度和计算复杂度方面已经有非常不错的性能表现,而当k=4或更高的k值将降低文本分类精度,因此,仅给出NMGC-2和NMGC-3模型(即仅考虑k=2和k=3两种情况)与现有其它分类模型的分类效果、模型参数及计算复杂度的比对结果,如下表2-4所示:

表2 NMGC-2、NMGC-3与现有模型基于相同文本数据集的测试对比

表2说明:表中的准确率以百分比表示,且该数字是10次运行的平均值。

表3不同隐藏神经元数目的NMGC-2、NMGC-3模型分类结果比对表

表4 NMGC-2、NMGC-3与GCN模型的计算复杂度和参数值对比表

表4说明:1、2和3表示图卷积顺序,200、64、128和32表示隐藏神经元数目。

基于上述实验结果可知,本实施例提出了一种包括能同时捕获低阶和高阶邻域文本节点之间的相互关系的高低阶图卷积,和能混合不同邻域的一阶到高阶特征的NMPooling信息融合层的高低阶图卷积神经网络模型(NMGC),可在文本分类中保留更多更丰富的特征信息,学习全局图拓扑,不仅扩宽了感受野,也提高了模型表达能力。此外,对不同阶图卷积采用权重共享和设置较少的隐藏神经元个数来减少计算复杂度和参数量,避免了模型的过拟合,基于五个基准文本数据集上的实验结果表明应用高低阶图卷积神经网络模型与采用经典的一阶图卷积网络进行文本分类在分类精度、分类性能和参数方面都有着明显优势,在达到最高精度的同时还最稳定。

需要说明的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

在一个实施例中,如图7所示,提供了一种文本分类系统,所述系统包括:

建立分类模型模块71,用于建立高低阶图卷积神经网络模型;所述高低阶图卷积神经网络模型依次包括输入层、高低阶图卷积层、信息融合层、一阶图卷积层、以及输出层;

获取分类语料模块72,用于获取采用所述高低阶图卷积神经网络模型进行文本分类的语料集;所述语料集包括多个样本,每个样本包含文档和标题;

语料集预处理模块73,用于对所述语料集进行预处理,得到训练集和测试集;

构建文本图网络模块74,用于根据所述训练集和测试集分别构建训练集文本图网络和测试集文本图网络;

文本分类模型训练模块75,用于将所述训练集文本图网络输入到高低阶图卷积神经网络模型,结合损失函数进行训练,得到文本分类模型;

文本分类测试模块76,用于将所述测试集文本图网络输入到所述文本分类模型中进行测试,得到分类结果。

关于文本分类系统的具体限定可以参见上文中对于文本分类方法的限定,在此不再赘述。上述文本分类系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。

图8示出一个实施例中计算机设备的内部结构图,该计算机设备具体可以是终端或服务器。如图8所示,该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示器和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种电价概率预测方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。

本领域普通技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算设备可以包括比途中所示更多或更少的部件,或者组合某些部件,或者具有同的部件布置。

在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述方法的步骤。

在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法的步骤。

综上,本发明实施例提供的一种文本分类方法、系统、计算机设备和存储介质,其基于高低阶图卷积网络的文本分类方法在充分考虑文本分类的易忽略的全局单词共现信息,易出现的感受野窄、模型过平滑和表达能力欠缺等多方面问题的基础上,提出了一种采用包括捕捉节点的多阶邻域信息的高低阶图卷积层、混合不同邻域的一阶到高阶特征的NMPooling信息融合层、一阶图卷积层及softmax分类输出层的新的高低阶图卷积神经网络模型进行文本分类的方法。该方法应用于实际的文本分类时,既能通过高低阶图卷积层同时捕捉文本节点的低阶邻域和高阶邻域信息,获取更多和更丰富的文本节点信息,进而扩宽感受野和提高模型的表达能力,又通过对不同阶图卷积采用权重共享和设置较少的隐藏神经元个数的方法减少模型的计算复杂度和参数量,进而避免了模型的过拟合,提升了模型的稳定性和文本分类的精度。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。

本说明书中的各个实施例均采用递进的方式描述,各个实施例直接相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统、计算机设备和存储介质的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。需要说明的是,上述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上所述实施例仅表达了本申请的几种优选实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和替换,这些改进和替换也应视为本申请的保护范围。因此,本申请专利的保护范围应以所述权利要求的保护范围为准。

相关技术
  • 一种文本分类方法、系统、计算机设备和存储介质
  • 短文本分类方法、系统、计算机设备和可读存储介质
技术分类

06120112501261