掌桥专利:专业的专利平台
掌桥专利
首页

一种文本情感分析模型的优化方法及装置

文献发布时间:2023-06-19 10:27:30


一种文本情感分析模型的优化方法及装置

技术领域

本申请涉及文本分析技术领域,具体而言,涉及一种文本情感分析模型的优化方法及装置。

背景技术

随着社交软件和电商平台等应用的蓬勃发展,存在于这些应用中的海量文本数据蕴含着大众对某些热点事件的情感态度,传统的文本情感分析方法鲁棒性较低,在文本被恶意添加扰动或被破坏时,将对情感分析系统造成一定的干扰,导致结果误判。

发明内容

本申请实施例的目的在于提供一种文本情感分析模型的优化方法及装置,结合基于情感词的全局注意力机制、基于自适应尺度的局部注意力机制和对抗Dropout并对模型进行优化,提高模型的鲁棒性和情感分类结果的准确性,解决现有方法鲁棒性较低、结果不准确的问题。

本申请实施例提供了一种文本情感分析模型的优化方法,所述方法包括:

获取输入文本对应的第一词向量;

将所述第一词向量分别输入预设的对抗Dropout的情感词注意力模型和对抗Dropout的自适应尺度注意力模型,以分别获得情感词注意力特征和自适应尺度注意力特征;

对所述第一词向量添加对抗扰动以生成第二词向量;

将所述第二词向量分别输入对抗Dropout的情感词注意力模型和随机Dropout的情感词注意力模型,以对所述对抗Dropout的情感词注意力模型进行基于情感词的注意力计算,并获得对抗情感词注意力特征;

将所述第二词向量分别输入对抗Dropout的自适应尺度注意力模型和随机Dropout的自适应尺度注意力模型,以对所述对抗Dropout的自适应尺度注意力模型进行基于自适应尺度的注意力计算,并获得对抗自适应尺度注意力特征;

将所述情感词注意力特征和所述自适应尺度注意力特征进行拼接生成融合特征;

基于所述融合特征、所述对抗情感词注意力特征和所述对抗自适应尺度注意力特征并利用分类器获取总损失;

最小化所述总损失,以优化文本情感分析模型。

在上述实现过程中,本申请中的融合对抗训练和对抗Dropout方法的文本情感分析模型,采用对抗训练在输入层对文本添加对抗扰动来训练对抗样本,同时在网络的隐藏层进行对抗性Dropout,以动态遮蔽适当数量的神经元,从而提高模型鲁棒性,注意力机制包括基于情感词的全局注意力机制和基于自适应尺度的局部注意力机制,将两者结合可提高情感分类结果的准确性,通过总损失表征模型的性能,并通过减小总损失对模型进行优化,从而进一步提高模型性能。

进一步地,所述方法还包括:

构建LSTM模型,以生成情感词注意力模型;

构建卷积神经网络模型,以生成自适应尺度注意力模型。

在上述实现过程中,情感词注意力机制可采用LSTM模型实现,自适应尺度注意力机制可采用卷积神经网络模型实现,将两者结合,前者既关注到情感词又保留了文本信息的完整性,后者既可以自适应地选择合适的尺度又捕捉到重要的局部信息,因此有利于提高情感分类结果的准确性。

进一步地,所述将所述第一词向量输入对抗Dropout的情感词注意力模型,以获得情感词注意力特征,包括:

通过所述LSTM模型和所述第一词向量获取每个时刻的隐藏层输出状态的注意力权重;

所述注意力权重为:

其中,score(h

基于所述每个时刻的隐藏层输出状态以及对应的注意力权重获取所述情感词注意力特征;

所述情感词注意力特征为:

在上述实现过程中,通过LSTM模型进行特征提取,是一种全局的注意力机制,基于情感词的注意力机制偏向对特征本身进行注意力计算,模型会给予情感词较大的权重,从而关注到情感词的作用。

进一步地,所述将所述第一词向量输入对抗Dropout的自适应尺度注意力模型,以获得自适应尺度注意力特征,包括:

将所述第一词向量输入卷积核大小不同的卷积层以得到不同尺度对应的尺度特征;

将每个所述尺度特征进行标量表示并进行拼接生成标量集合;

所述标量集合为:

S={l∈Ls

其中,l表示第l种卷积核,L表示卷积核的种类,s

根据所述标量集合计算所述尺度特征的注意力权重集合;

所述注意力权重集合为:

α=softmax(MLP(S));

其中,MLP表示多层感知机;

根据所述尺度特征和对应的注意力权重获取所述自适应尺度注意力特征;

所述自适应尺度注意力特征表示为:

其中,α

在上述实现过程中,自适应尺度注意力机制采用卷积神经网络模型,通过卷积层进行特征提取,再经过尺度集合和尺度重组从而得到自适应尺度注意力特征。

进一步地,所述基于所述融合特征、所述对抗情感词注意力特征和所述对抗自适应尺度注意力特征并利用分类器获取总损失,包括:

基于所述融合特征利用Softmax分类器进行计算,得到分类损失,所述分类损失可更新所述对抗扰动;

所述分类损失为:

其中,y

将所述对抗情感词注意力特征和所述对抗自适应尺度注意力特征分别利用分类器进行计算,分别得到情感词对抗损失和自适应尺度对抗损失;

所述情感词对抗损失为:

其中,r′

所述自适应尺度(CNN)对抗损失为:

其中,ε″

基于所述分类损失、所述情感词对抗损失和所述自适应尺度对抗损失获得总损失;

所述总损失为:

L

其中,L

在上述实现过程中,将分类损失、情感词对抗损失和自适应尺度对抗损失之和作为模型的总损失,该总损失可以表征模型的性能,并可通过最小化总损失来优化模型。

本申请实施例还提供一种文本情感分析模型的优化装置,所述装置包括:

词向量获取模块,用于获取输入文本对应的第一词向量;

第一特征获取模块,用于将所述第一词向量分别输入预设的对抗Dropout的情感词注意力模型和对抗Dropout的自适应尺度注意力模型,以分别获得情感词注意力特征和自适应尺度注意力特征;

词向量生成模块,用于对所述第一词向量添加对抗扰动以生成第二词向量;

第一对抗特征获取模块,用于将所述第二词向量分别输入对抗Dropout的情感词注意力模型和随机Dropout的情感词注意力模型,以对所述对抗Dropout的情感词注意力模型进行基于情感词的注意力计算,并获得对抗情感词注意力特征;

第二对抗特征获取模块,用于将所述第二词向量分别输入对抗Dropout的自适应尺度注意力模型和随机Dropout的自适应尺度注意力模型,以对所述对抗Dropout的自适应尺度注意力模型进行基于自适应尺度的注意力计算,并获得对抗自适应尺度注意力特征;

融合特征生成模块,用于将所述情感词注意力特征和所述自适应尺度注意力特征进行拼接生成融合特征;

总损失计算模块,用于基于所述融合特征、所述对抗情感词注意力特征和所述对抗自适应尺度注意力特征并利用分类器获取总损失;

优化模块,用于最小化所述总损失,以优化文本情感分析模型。

在上述实现过程中,结合注意力机制和对抗训练的文本情感分析模型,通过添加对抗扰动来训练对抗样本,提高了模型的鲁棒性,同时结合基于情感词的全局注意力机制和基于自适应尺度的局部注意力机制,提高了情感分类的性能。

进一步地,所述装置还包括:

第一构建模块,用于构建LSTM模型,以生成情感词注意力模型;

第二构建模块,用于构建卷积神经网络模型,以生成自适应尺度注意力模型。

在上述实现过程中,通过构建LSTM模型和卷积神经网络模型,将基于情感词的全局注意力机制和基于自适应尺度的局部注意力机制相结合。

进一步地,所述总损失计算模块包括:

分类损失模块,用于基于所述融合特征利用Softmax分类器进行计算,得到分类损失,所述分类损失可更新所述对抗扰动;

所述分类损失为:

其中,y

对抗损失模块,用于将所述对抗情感词注意力特征和所述对抗自适应尺度注意力特征分别利用分类器进行计算,分别得到情感词对抗损失和自适应尺度对抗损失;

所述情感词对抗损失为:

其中,r′

所述自适应尺度(CNN)对抗损失为:

其中,ε″

总损失获取模块,用于基于所述分类损失、所述情感词对抗损失和所述自适应尺度对抗损失获得总损失;

所述总损失为:

L

其中,L

在上述实现过程中,计算模型的总损失,可通过最小化总损失来优化模型。

本申请实施例提供一种电子设备,所述电子设备包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行上述中任一项所述的文本情感分析模型的优化方法。

本申请实施例提供一种可读存储介质,所述可读存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行上述中任一项所述的文本情感分析模型的优化方法。

附图说明

为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。

图1为本申请实施例提供的一种文本情感分析模型的优化方法的流程图;

图2为本申请实施例提供的生成情感词注意力特征的流程图;

图3为本申请实施例提供的LSTM模型的架构示意图;

图4为本申请实施例提供的自适应尺度注意力特征的流程图;

图5为本申请实施例提供的CNN模型的架构示意图;

图6为本申请实施例提供的总损失的计算流程图;

图7为本申请实施例提供的文本情感分析模型的架构示意图;

图8为本申请实施例提供的文本情感分析模型的优化装置的结构框图;

图9为本申请实施例提供的文本情感分析模型的优化装置的具体结构框图。

图标:

100-词向量获取模块;200-第一特征获取模块;210-第一构建模块;220-第二构建模块;201-情感词注意力特征获取模块;202-自适应尺度注意力特征获取模块;300-词向量生成模块;400-第一对抗特征获取模块;500-第二对抗特征获取模块;600-融合特征生成模块;700-总损失计算模块;701-分类损失模块;702-对抗损失模块;703-总损失获取模块;800-优化模块。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。

实施例1

请参看图1,图1为本申请实施例提供的一种文本情感分析模型的优化方法的流程图。该方法具体包括以下步骤:

步骤S100:获取输入文本对应的第一词向量;

步骤S200:将所述第一词向量分别输入预设的对抗Dropout的情感词注意力模型和对抗Dropout的自适应尺度注意力模型,以分别获得情感词注意力特征和自适应尺度注意力特征;

在步骤S200之前,为所述方法还包括:

构建LSTM模型,以生成情感词注意力模型;构建卷积神经网络模型,以生成自适应尺度注意力模型。

之后,如图2所示,为生成情感词注意力特征的流程图,利用LSTM模型生成情感词注意力特征的具体步骤可以包括:

步骤S211:通过所述LSTM模型和所述第一词向量获取每个时刻的隐藏层输出状态的注意力权重;

所述注意力权重为:

其中,score(h

步骤S212:基于所述每个时刻的隐藏层输出状态以及对应的注意力权重获取所述情感词注意力特征;

所述情感词注意力特征为:

如图3所示,为LSTM模型的架构示意图,基于情感词的注意力机制把注意力放在情感词上且以LSTM为基础结构,可以捕捉到情感词的信息辅助分类,又可以掌握全局信息理解句子的含义;同时,基于情感词的注意力机制偏向对特征本身进行注意力计算,模型会给予情感词较大的权重,从而关注到情感词作用,本申请使用单层LSTM进行注意力计算,并用Softmax(逻辑回归模型)作为分类层,进行情感分类,其中,{x

如图4所示,为自适应尺度注意力特征的流程图,生成基于卷积神经网络模型(CNN)生成自适应尺度注意力特征的具体步骤可以包括:

步骤S221:将所述第一词向量输入卷积核大小不同的卷积层以得到不同尺度对应的尺度特征;

步骤S222:将每个所述尺度特征进行标量表示并进行拼接生成标量集合;

所述标量集合为:

S={l∈L|s

其中,l表示第l种卷积核,L表示卷积核的种类,s

步骤S223:根据所述标量集合计算所述尺度特征的注意力权重集合;

所述注意力权重集合为:

α=softmax(MLP(S));

其中,MLP表示多层感知机;

步骤S224:根据所述尺度特征和对应的注意力权重获取所述自适应尺度注意力特征;

所述自适应尺度注意力特征表示为:

其中,α

如图5所示,为CNN模型的架构示意图,基于自适应尺度的注意力机制主要由特征提取和注意力计算两个部分组成,其中,特征提取主要包含卷积层,把词向量输入到卷积核大小不同的CNN(卷积神经网络)中得到不同尺度的尺度特征,注意力计算主要包括两个步骤,分别是尺度集合和尺度重组,最后得到自适应尺度注意力特征。

步骤S300:对所述第一词向量添加对抗扰动以生成第二词向量;

步骤S400:将所述第二词向量分别输入对抗Dropout的情感词注意力模型和随机Dropout的情感词注意力模型,以对所述对抗Dropout的情感词注意力模型进行基于情感词的注意力计算,并获得对抗情感词注意力特征;

步骤S500:将所述第二词向量分别输入对抗Dropout的自适应尺度注意力模型和随机Dropout的自适应尺度注意力模型,以对所述对抗Dropout的自适应尺度注意力模型进行基于自适应尺度的注意力计算,并获得对抗自适应尺度注意力特征;

步骤S600:将所述情感词注意力特征和所述自适应尺度注意力特征进行拼接生成融合特征;

步骤S700:基于所述融合特征、所述对抗情感词注意力特征和所述对抗自适应尺度注意力特征并利用分类器获取总损失;

如图6所示,为总损失的计算流程图,总损失的计算具体可以包括:

步骤S701:基于所述融合特征利用Softmax分类器进行计算,得到分类损失,所述分类损失可更新所述对抗扰动;

所述分类损失为:

其中,y

步骤S702:将所述对抗情感词注意力特征和所述对抗自适应尺度注意力特征分别利用分类器进行计算,分别得到情感词对抗损失和自适应尺度对抗损失;

所述情感词对抗损失为:

其中,r′

所述自适应尺度(CNN)对抗损失为:

其中,ε″

步骤S703:基于所述分类损失、所述情感词对抗损失和所述自适应尺度对抗损失获得总损失;

所述总损失为:

L

其中,L

步骤S800:最小化所述总损失,以优化文本情感分析模型。

具体地,如图7所示,为文本情感分析模型的架构示意图,将第一词向量

同时把加入了对抗扰动的第二词向量

将第一词向量

同时将加入了对抗扰动的第二词向量

将LSTM对抗损失、CNN对抗损失以及分类损失作为模型的总损失,通过最小化总损失来优化模型。

对该文本情感分析模型的性能进行对比和分析,具体如下:

对于参数的设置,该模型在对抗训练阶段所使用的超参数是β,对抗Dropout所使用的超参数是δ,分类性能评价指标主要是准确率和F值,具体参数设置如下表1所示:

表1

设置对比模型以对比不同模型的性能,具体包括:

LSTM-ATAdD模型:该模型是融合了对抗训练和对抗Dropout的方法,以LSTM为特征提取网络。

CNN-AtAd模型:该模型与LSTM-ATAd模型的不同之处在于,特征提取网络换成了CNN。

Seni-At-ATAd模型:该模型使用LSTM提取文本特征时考虑了情感词的信息,把注意力放在情感词上,LSTM保留了文本的全局信息。

Scale-At-ATAd模型:该模型使用单层CNN提取文本特征时,把注意力放在了尺度选择上,结合了不同尺度的信息,保留了文本的局部信息。

Senti-Scale-Att-ATAdD模型:该模型结合了基于情感词的全局注意力机制和基于自适应尺度的局部注意力机制。

利用上述模型进行分类,分类结果包括在三个数据集上的平均准确率、平均F值和平均准确率的方差,如表2所示,为IMDB数据集情感分类结果与完成一次迭代的平均时间,表3为ELEC数据集情感分类结果与完成一次迭代的平均时间,表4为MR数据集情感分类结果与完成一次迭代的平均时间。由表可知,当特征提取网络相同时,加入注意力机制的模型比未加入注意力机制的模型的分类效果要好,说明在模型中引入注意力机制能有效提升分类性能,而在添加了注意力机制的模型中,Senti-Att-ATAdD模型比Scale-At-ATAdD模型的分类效果更好,表明基于情感词的全局注意力能较好地学习到文本的整体信息,保留文本信息的完整性。Sent-Scale-Att-ATAdD模型在三个数据集上的表现结果最好,说明结合了基于情感词的全局注意力机制和基于自适应尺度的局部注意力机制不仅保留了信息的完整性还能关注到不同尺度的词的组合从而保留短语粒度的局部信息,显著提高了分类性能。特别地,所有模型在三个数据集上的平均准确率的方差均较小,表明实验结果不具备偶然性。

表2

表3

表4

此外,从完成一次迭代的平均时间来看,独立使用LSTM的模型完成一次迭代所需的时间高于独立使用CNN模型的时间,说明在训练时LSTM比CNN要付出更大的时间代价。由于注意力机制的计算过程比较复杂,因此引入注意力机制的模型需要花费更多的时间,Senti-Att-ATAdD模型在IMDB和ELEC数据集上完成一次迭代的时间是LSTM-ATAdD模型的1.4倍,说明在计算并更新情感词的全局注意力权重时,LSTM在每一个时间步内都要进行注意力计算,这需要耗费大量的时间。而本本申请提出的文本情感分析模型即Senti-Scale-Att-ATAdD模型在IMDB、ELEC和MR数据集完成一次迭代的时间分别是720秒、615秒和62秒,远低于Senti-Att-ATAdD模型,不仅没有明显增加训练的迭代时间,还提升了情感分类效果。

综上,本申请中的融合对抗训练和对抗Dropout方法的文本情感分析模型,采用对抗训练在输入层对文本添加对抗扰动来训练对抗样本,同时在网络的隐藏层进行对抗性Dropout,以动态遮蔽适当数量的神经元,从而提高了模型的鲁棒性。

针对分类性能方面,本申请中的结合注意力机制和对抗训练的文本情感分析模型,注意力包含基于情感词的全局注意力机制和基于自适应尺度的局部注意力机制,前者既关注到情感词又保留了文本信息的完整性,后者既可以自适应地选择合适的尺度又捕捉到重要的局部信息,将两种注意力机制与融合了对抗训练和对抗Dropout的方法相结合,不仅可以提升情感分类的性能,而且不明显增加训练时间。

其中,基于情感词的注意力机制不仅可以关注到情感词的重要信息,还可以学习到文本的全局特性,基于自适应尺度的注意力机制可以自动学习到灵活多变的尺度特征,能更好地学习到文本的局部特性。结合基于情感词的注意力机制和基于自适应尺度的注意力机制既不破坏文本的完整性,还突出了重要的局部信息。

在模型中引入对抗训练和对抗dropout可以防止过拟合,加强模型的鲁棒性,并在保证模型强鲁棒性的前提下,提高情感分类的准确性。

实施例2

本申请实施例提供一种文本情感分析模型的优化装置,应用于实施例1中的文本情感分析模型的优化方法,如图8所示,为文本情感分析模型的优化装置的结构框图,所述装置包括:

词向量获取模块100,用于获取输入文本对应的第一词向量;

第一特征获取模块200,用于将所述第一词向量分别输入预设的对抗Dropout的情感词注意力模型和对抗Dropout的自适应尺度注意力模型,以分别获得情感词注意力特征和自适应尺度注意力特征;

词向量生成模块300,用于对所述第一词向量添加对抗扰动以生成第二词向量;

第一对抗特征获取模块400,用于将所述第二词向量分别输入对抗Dropout的情感词注意力模型和随机Dropout的情感词注意力模型,以对所述对抗Dropout的情感词注意力模型进行基于情感词的注意力计算,并获得对抗情感词注意力特征;

第二对抗特征获取模块500,用于将所述第二词向量分别输入对抗Dropout的自适应尺度注意力模型和随机Dropout的自适应尺度注意力模型,以对所述对抗Dropout的自适应尺度注意力模型进行基于自适应尺度的注意力计算,并获得对抗自适应尺度注意力特征;

融合特征生成模块600,用于将所述情感词注意力特征和所述自适应尺度注意力特征进行拼接生成融合特征;

总损失计算模块700,用于基于所述融合特征、所述对抗情感词注意力特征和所述对抗自适应尺度注意力特征并利用分类器获取总损失;

优化模块800,用于最小化所述总损失,以优化文本情感分析模型。

如图9所示,为文本情感分析模型的优化装置的具体结构框图,所述装置还包括:

第一构建模块210,用于构建LSTM模型,以生成情感词注意力模型;

第二构建模块220,用于构建卷积神经网络模型,以生成自适应尺度注意力模型。

所述总损失计算模块700包括:

分类损失模块701,用于基于所述融合特征利用Softmax分类器进行计算,得到分类损失,所述分类损失可更新所述对抗扰动;

所述分类损失为:

其中,y

对抗损失模块702,用于将所述对抗情感词注意力特征和所述对抗自适应尺度注意力特征分别利用分类器进行计算,分别得到情感词对抗损失和自适应尺度对抗损失;

所述情感词对抗损失为:

其中,r′

所述自适应尺度(CNN)对抗损失为:

其中,ε″

总损失获取模块703,用于基于所述分类损失、所述情感词对抗损失和所述自适应尺度对抗损失获得总损失;

所述总损失为:

L

其中,L

第一特征获取模块200包括情感词注意力特征获取模块201和自适应尺度注意力特征获取模块202,其中,情感词注意力特征获取模块用于基于对抗Dropout的LSTM模型获得情感词注意力特征,自适应尺度注意力特征获取模块用于基于对抗Dropout的CNN模型获得自适应尺度注意力特征,具体不再赘述。

本申请实施例还提供一种电子设备,所述电子设备包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行实施例1所述的文本情感分析模型的优化方法。

本申请实施例提供一种可读存储介质,所述可读存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行实施例1所述的文本情感分析模型的优化方法。

在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。

所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

相关技术
  • 一种文本情感分析模型的优化方法及装置
  • 一种多特征融合的文本情感分析模型及装置
技术分类

06120112553804