掌桥专利:专业的专利平台
掌桥专利
首页

事件分类处理方法、装置、电子设备和存储介质

文献发布时间:2023-06-19 10:24:22


事件分类处理方法、装置、电子设备和存储介质

技术领域

本申请涉及人工智能技术领域中的深度学习、知识图谱和自然语言处理技术领域,尤其是涉及一种事件分类处理方法、装置、电子设备和存储介质。

背景技术

通常来说,事件抽取技术可以从非结构化信息中抽取用户感兴趣的事件,并以结构化呈现给用户。事件分类是进行事件抽取的基础,事件分类的质量决定了事件抽取的质量。

现有技术中,进行事件分类处理时,事件类型的类型体系是经过预先定义的,因此,目前的分类技术只能针对特定领域进行处理。

发明内容

本申请提供了一种用于事件分类处理方法、装置、设备以及存储介质,涉及人工智能技术领域中的深度学习、知识图谱和自然语言处理技术领域。提供了一种可以处理开放域事件分类问题的技术方案。

根据本申请的第一方面,提供了一种事件分类处理方法,包括:

获取多个属于不同事件类型的样本事件集合,其中,每个所述样本事件集合包含多个属于相同事件类型的样本事件文本;

获取每个所述样本事件文本对应的字符向量;

对每个所述样本事件文本进行语义分析标注角色实体,获取与每个所述角色实体对应的词向量;

将每个所述样本事件文本对应的所述字符向量,以及所述角色实体对应的所述词向量作为预设神经网络模型的输入信息,以及将每个所述样本事件所属的样本事件集合对应的事件类型作为所述神经网络模型的输出信息,进而训练所述神经网络模型进行事件分类。

根据本申请的第二方面,提供了一种事件分类处理装置,包括:

第一获取模块,获取多个属于不同事件类型的样本事件集合,其中,每个所述样本事件集合包含多个属于相同事件类型的样本事件文本;

第一处理模块,获取每个所述样本事件文本对应的字符向量;

第二处理模块,对每个所述样本事件文本进行语义分析标注角色实体,获取与每个所述角色实体对应的词向量;

训练模块,将每个所述样本事件文本对应的所述字符向量,以及所述角色实体对应的所述词向量作为预设神经网络模型的输入信息,以及将每个所述样本事件所属的样本事件集合对应的事件类型作为所述神经网络模型的输出信息,进而训练所述神经网络模型进行事件分类。

根据本申请的第三方面,提供了一种电子设备,包括:

至少一个处理器;以及

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请的一方面所述事件分类处理方法。

根据本申请的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行本申请的一方面所述的事件分类处理方法。

根据本申请的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据第一方面所述的事件分类处理方法。

根据本申请的技术方案,提供了一种无需预先构建事件类型体系且生成事件类型信息更加完善的事件分类处理方法。

应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。

附图说明

附图用于更好地理解本方案,不构成对本申请的限定。其中:

图1是根据本申请一个实施例的事件分类处理方法的流程图;

图2是根据本申请另外一个实施例的获取多个属于不同事件类型的样本事件集合的方法的流程图;

图3是根据本申请又一个实施例的生成输入解码层的向量的方法的流程图;

图4是根据本申请一个实施例的神经网络模型的模型结构示意图

图5是根据本申请一个实施例的事件分类处理模型的结构装置的结构框图;

图6是根据本申请另一个实施例的事件分类处理模型的结构装置的结构框图;

图7是根据本申请又一个实施例的事件分类处理模型的结构装置的结构框图;

图8是用来实现本申请实施例的事件分类处理的电子设备的框图。

具体实施方式

以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

本申请提出了一种事件分类处理方法,本处理方法的事件分类技术方案可以应用于开放域。在模型训练时,模型的输入信息包括角色实体对应的词向量,该词向量的加入可以使模型更有效地进行事件提取,并且,提取出的事件信息更加完善。

图1是根据本申请一个实施例的事件分类处理方法的流程图。需要说明的是,本申请实施例的事件分类处理方法可应用于本申请实施例的事件分类处理装置,该事件分类装置可被配置于本申请实施例的电子设备上。如图1所示,该事件分类处理方法可以包括:

步骤101,获取多个属于不同事件类型的样本事件集合,其中,每个样本事件集合包含多个属于相同事件类型的样本事件文本。

通常,知识图谱可以由存在内在关系的事件及所述事件之间的关系组成,事件可以是从表达方式中抽取出来的,相同语义可以有多种表达方式,从多种表达方式中抽取其对应的语义的技术即为事件抽取技术,事件抽取技术中有一关键步骤为事件分类。现有技术中,事件分类只能应用于特定领域,而不能应用于开放域。因此,想要使事件抽取技术能适用于更加广泛的应用场景,就需要使用覆盖更加广泛的样本事件集合对事件分类模型进行训练,该过程会耗费大量的人力。本申请提出了一种不限于特定领域的事件分类处理方法。

在本申请一些实施例中,首先,会根据预设算法获取多个属于不同事件类型的样本事件集合,其中,需要说明的是,该预设算法可以为机器学习领域的无监督聚类算法,与有监督学习算法相比,无监督聚类算法不需要对数据进行标记,因此不需要提前建立事件分类体系。该无监督聚类算法包括但不限于:K-means、single pass、层次聚类算法其中的任一种。

根据无监督聚类算法获得的事件类型可以为粗粒度也可以为细粒度的,粗粒度和细粒度为一组相对概念,细粒度分类比粗粒度分类更加细致。举例而言,粗粒度分类包括但不限于:生活、事务、拍戏中的任一或多个。当粗粒度分类为拍戏时,对应的细粒度分类包括但不限于:拍电视剧、拍电影、拍话剧中的任一或多个。当期待模型的输出更细粒度时,可以采用细粒度的分类方法;当期待模型的输出粗粒度时,可以采用粗粒度的分类方法。

可以理解的,通过无监督聚类算法处理,会获得多个样本事件集合,在同一个样本事件集合中的样本事件文本都是属于同一个事件类型的;在不同样本事件集合中的样本事件文本不属于同一个事件类型。在一个样本事件集合中,可以有多个样本事件文本,该样本事件文本的来源可以有多种,包括但不限于:新闻网站摘取,热点网站爬取、论坛发帖纪录中的任一种或多种。样本事件也可以为从整体中选取的一部分事件,包括但不限于:摘要、标题、主要自然段中的任一种或几种。样本事件文本也可以是多种语言的,包括但不限于:中文、英文、日语中的任一或多种。

可以理解地,该步骤只提及了获取多个属于不同事件类型的样本事件集合,未要求将不同事件类型的样本事件集合进行标注。

步骤102,获取每个样本事件文本对应的字符向量。

可以理解地,获取到样本事件文本之后,需要通过深度学习技术对获取到的样本事件文本进行处理,那么,将文本信息转换成计算机可以处理的数据信息是有必要的。

本申请一些实施例中,需要将样本事件文本拆分成字和/或词,并且将其作为深度学习模型的输入信息,作为一种转换手段,可以将样本事件文本中的字和/或词转换成对应的字符向量和/或词向量。该字符向量和/或词向量可以作为模型的输入信息。

步骤103,对每个样本事件文本进行语义分析标注角色实体,获取与每个角色实体对应的词向量。

可以理解地,与字符向量类似,样本事件文本中的词向量也可以作为模型的输入信息,并且词向量和字符向量相比可以携带更多的信息,通常而言,这种信息可以为角色实体。角色实体可以是一个句子中带有名词性的词,通过语义分析,我们可以根据谓语和名词之间关系的不同,将名词分为不同的角色实体。常见的角色实体包括但不限于:施事者、受事者、与事者中任一或多种。其中:施事可以为句子的主语;受事者可以为句子的宾语;与事者可以为施事者所发动事件的非主动参与者。

在本申请一些实施例中,角色实体还可以包括触发词。现有技术中,可以以触发词为核心,结合他的上下文特征对事件进行分类,例如:“我吃饭”触发词即为“吃”。在角色实体中加入触发词,可以使模型的训练更有效率,并且事件分类更准确。

在本申请一些实施例中,在进行语义分析前,可以对每个样本事件文本进行分词处理,该分词处理为自然语言技术领域的常用技术,将分词处理之后的样本事件文本通过语义分析,标注角色实体。每个角色实体对应的词会存在对应的词向量,该词向量即为获取目标。

可理解地,角色实体对应的词向量的加入可以使得模型在进行事件分类时,更细粒度、更详细的。这种细粒度且详细的事件分类更有利于事件抽取和事理逻辑的进行。

步骤104,将每个样本事件文本对应的字符向量,以及角色实体对应的词向量作为预设神经网络模型的输入信息,以及将每个样本事件所属的样本事件集合对应的事件类型作为神经网络模型的输出信息,进而训练神经网络模型进行事件分类。

可以理解地,样本事件文本对应的字符向量、角色实体对应的词向量可以一起作为输入信息,输入到预设的神经网络模型中。样本事件所属的样本事件集合对应的事件类型为该神经网络的输出信息。该预设的神经网络模型是由大量的、简单的处理单元广泛地相互连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学习系统。

在本申请一些实施例中,该神经网络模型可以由不同的拓扑结构构成,该拓扑结构包括但不限于seq2seq(Sequence to Sequence,序列对序列)模型、Attention模型、生成式对抗网络模型。使用该输入信息和输出信息对神经网络模型进行训练,可以使得该神经网络具有进行事件分类的能力。

在本申请一些实施例中,输入神经网络模型的词向量还可以和其对应的角色实体组成一个键值对结构,该键值对可以转化成一组键值对向量。样本事件文本对应的键值对向量和样本事件文本对应的字符向量可以一起作为输入信息输入预设神经网络。

根据本申请实施例的事件分类处理方法,获取多个样本事件集合,其中每个样本事件集合为同一个事件类型。对神经网络模型进行训练,该神经网络模型的输入信息包括:样本事件文本对应的字符向量、样本事件文本对应的角色实体对应的词向量。该神经网络模型的输出信息包括:样本事件所属的样本事件集合对应的事件类型。训练之后的神经网络模型具有事件分类的能力。

现有的事件分类模型大都是面向非开放域的,需要提前定义事件类型集合,然而事件类型复杂多样,预先定义的事件类型集合覆盖面很小,本申请采用了使用无监督学习模型对样本事件进行分类的方法,并以此分类为基础进行事件类型的标注,再使用经过此训练获得的模型对原数据进行事件分类。由于采用了无监督学习模型,并且没有采用预先定义的事件类型,因此本申请的技术方案可以应用于开放域。在进行神经网络模型训练的时候,输入信息还包括角色实体对应的词向量,该词向量的加入可以使得模型更容易提取事件类型,并且提取出的事件类型的信息会更加完善,具有更好的细粒度。

本申请的第二实施例中,基于第一实施例,为了使模型的训练效率更高,训练难度更低,可以从数据量更多的候选事件集合中获取样本事件集合。可以基于图1的事件分类处理方案使用实施例二具体说明该方法。可选地,步骤101中所述的:获取多个属于不同事件类型的样本事件集合,具体操作可以为步骤201-204。

为了更清楚说明如何根据需求获取样本事件集合,可以通过图2具体说明,图2为根据本申请一个实施例的获取多个属于不同事件类型的样本事件集合的方法的流程图,具体包括:

步骤201,获取满足预设条件的候选事件文本。

可以理解地,需要通过预设条件,限制候选事件文本的获取范围,才能使得模型的训练更加高效。

在本申请一些实施例中,预设条件可以包括但不限于:时间限制、来源限制、获得方式限制中的任一种或多种。时间限制可以为一定时间段内产生的事件文本即为候选事件文本;来源限制可以是某几个网站的事件文本为候选事件文本;获得方式的限制包括但不限于:脚本爬取、人工筛选下载、后台数据库获得中的任一种或多种。

步骤202,对候选事件文本进行聚类处理,生成多个属于不同事件类型的候选事件集合,其中,每个候选事件集合包含多个属于相同事件类型的候选事件文本。

可以理解地,候选事件文本中包含有多种事件类型,需要对候选事件文本进行处理,以得到候选事件集合。

在本申请一些实施例中,该处理可以为聚类处理,对候选事件文本进行聚类处理时可以采用无监督聚类模型,该无监督聚类算法包括但不限于:K-means、single pass、层次聚类算法其中的任一种或多种。聚类处理之后,会产生多个候选事件集合,候选事件集合中的候选事件文本都是相同事件类型的。

在本申请一些实施例中,在进行聚类处理的过程中,需要用到相似度计算,该相似度计算方法包括但不限于:基准方法、词移距离、与训练编码器中的一种。还可以使用事件类型归一模型来进行相似度计算,首先从候选事件文本中随机选取一些事件文本,将这些事件文本两两配对,对这些配对之后的事件文本进行人工标注。如果两个事件文本描述的为同一事件类型,则标为正样本;如果两个事件文本描述的不为同一事件类型,则标注为负样本。将两两配对的事件文本作为二分类模型的输入,对应的人工标记的正样本或负样本作为二分类模型的输出,对二分类模型进行训练,训练之后的模型即为事件类型归一模型,该模型可以用来进行事件类型相似度计算。

步骤203,提取每个候选事件集合的集合特征,并获取与每个集合特征对应的特征分值。

候选事件集合中,有些事件集合是小样本数据或者其他不适用于进行神经网络模型训练的数据,通常而言,该种数据会造成拟合问题,使得模型输出的事件类型信息不准确。可以通过集合特征对候选事件集合进行筛选。

在本申请一些实施例中,候选事件集合的集合特征包括以下至少一项:候选事件文本数量、候选事件文本所属的站点数量、候选事件文本所属的站点热度值、候选事件文本的热度值。在获取集合特征之后,需要获取每个集合特征对应的特征分值,可以理解地,候选事件文本数量及候选事件文本所属的站点数量越多,对应的特征分值越高;候选文本的热度值及候选事件文本所属的站点热度值越高,对应的特征分值越高。

在本申请一些实施例中,集合特征包括事件文本的热度值,为了获取该事件文本热度值对应的特征分值,可以进行以下操作:

计算候选事件集合中各候选事件文本与预设数据库中文本之间的字符相似度,根据字符相似度确定候选事件集合中与数据库文本匹配的文本热度。

可以理解地,预设数据库中的文本可以对应一个热度值相关数据,根据候选事件文本获得对应的预设数据库中的文本即可获得候选事件文本对应的热度值。

作为一种示例,可以将候选事件文本进行分词处理得到多个词,计算得到的多个词和预设数据库中文本的字符相似度,该字符相似度的计算方法包括但不限于simhash或TF-IDF(term frequency–inverse document frequency,词频-逆文本频率指数)。预设数据库中的文本可以是关键字,该关键字可以用来描述常用事件类型的部分特征。预设数据库中的文本也可以为检索系统中输入的查询词,通常,该查询词被称为:query。将字符相似度和预设阈值进行比较,如果字符相似度大于阈值,则保留该数据库文本,如果字符相似度小于阈值,则不保留该数据库文本。

其中,可以根据数据库文本获得候选事件文本对应的热度值,当数据库文本为query时,每个query都会有对应的pv(page view,页面浏览)值,将一个候选事件文本对应的多个目标事件文本的pv值进行数学处理,即可以得到该目标事件文本的热度值。该数学处理包括但不限于累加、求平均值中的任一种,该pv值即可为候选事件文本对应的热度值。

还可以预设热度模型,根据预设的热度模型对文本热度进行处理,生成候选事件文本的热度值。

可以理解的,经过字符相似度处理之后得到的数据库文本与候选事件文本的匹配是不精准的,还可以通过热度模型对数据库文本进行筛选,得到候选事件文本的热度值。

作为一种示例,将保留的数据库文本记录为候选数据库文本,候选数据库文本还要经过热度模型筛选,该热度模型为二分模型。该热度模型的训练方法如下:首先,获得对事件文本进行分词处理得到的分词,及其对应的候选数据库文本,从候选数据库文本中随机选取一些样本数据库文本,该样本数据库文本和对应的分词组成一对数据,对每对数据进行人工标注。如果分词和样本数据库文本语义相近,则标为正样本;如果分词和样本数据库文本语义不相近,则标注为负样本。将样本数据库文本和对应的分词作为二分类模型的输入,对应的人工标记的正样本或负样本作为二分类模型的输出,对二分类模型进行训练,训练之后的模型即为热度模型。使用该热度模型对候选数据库文本进行筛选,判断为正样本的即为需要保留的候选数据库文本,需要保留的候选数据库文本即为生成候选事件文本的热度值的依据。

可以理解地,一个候选事件文本会对应多个通过筛选的数据库文本,将一个候选事件文本对应的多个通过筛选的数据库文本的热度值通过运算结合,即可以得到该候选事件文本的热度值。

步骤204,根据与每个集合特征对应的特征分值从多个候选事件集合中选择满足筛选条件的多个样本事件集合,其中,每个样本事件集合包含多个属于相同事件类型的样本事件文本。

可以理解地,获得特征分值之后,可以根据特征分值对候选事件集合进行筛选。

在本申请一些实施例中,可以对各个集合特征对应的特征分值进行计算,该计算包括但不限于:累加、加权求和、求平方差中的一种。针对每个候选事件集合,得出一个总体特征分值。根据总体特征分值进行排序,该排序方法包括降序或升序排序,选前N个候选事件集合作为满足筛选条件的样本事件集合。可以理解地,每个事件集合中包含多个属于相同事件类型的样本事件文本。

根据本申请实施例的集合特征,在集合特征中引入了候选事件文本的热度值,热度值越高的事件集合,作为训练之后模型的输入的概率越高。加入了该集合特征之后,使得集合特征评价标准更加全面。获取候选事件文本的热度值的一种方法是根据query及其pv值进行运算,pv值会定期更新,因此根据pv值得到的热度值可以反映当前用户关心的数据,根据此集合特征筛选得到的事件集合也会更有代表性。

在本申请一些实施例中,可以通过将特征分值与预设阈值进行比较,完成候选事件集合的筛选,为了完成该种筛选,具体操作如下:

获取预设的与每个集合特征对应的权重。

可以理解地,每个集合特征根据其重要性,可以有不同的权重。通常,越重要的集合特征,权重越高;越不重要的集合特征,权重越低。

根据每个集合特征对应的特征分值和权重,计算每个候选事件集合的集合分值。

可以理解地,该集合分值的计算方法可以为:按照集合特征对应的特征权重对特征分值进行处理,权重越高的集合特征对集合分值的贡献越大。

作为一种示例,可以将集合特征对应的特征分值和该特征分值对应的特征权重进行乘法操作,再将不同集合特征进行乘法操作之后的结果进行累加操作,累加操作之后得到的结果即为候选事件集合的集合分值。

将每个候选事件集合的集合分值与预设阈值进行比较,将大于阈值的集合分值对应的候选事件集合作为样本事件集合。

可以理解地,在获得候选事件集合的集合分值之后,需要根据集合分值对候选事件集合进行筛选。

作为一种示例,可以采用预设阈值的方法对候选事件集合进行筛选,该阈值可以是根据经验预设的,集合分值大于阈值的候选样本事件集合既可以作为样本事件集合。

经过筛选之后的样本事件合集会更具有代表性,同时去除了小样本数据,防止了拟合问题的产生。

根据本申请实施例的样本事件集合获取方法,通过对候选事件文本进行聚类处理,得到候选事件集合,根据候选事件集合的集合特征,获取相应的特征分值,根据特征分值筛选出样本事件集合。该方法可以在不预先构建事件分类体系的情况下进行事件分类,从而可以应用于开放域。并且通过特征分值的筛选,筛选出的样本事件集合更有代表性,从而使得模型的训练更加有效率。

本申请的第三实施例中,基于上述实施例,为了使模型训练难度更低,训练之后的模型输出的事件类型更符合人类习惯,可以将字符向量处理之后输入解码层。为了更清楚说明该输入处理,可以基于上述各实施例的事件分类处理方案使用实施例三,具体说明该输入处理方式。在本申请一些实施例中,在训练神经网络模型之前,还包括,步骤301-304。

步骤301,获取输入信息经过神经网络模型中的编码层的第一向量。

可以理解地,该神经网络模型可以有多种,包括但不限于:baseline model、Pointer Network中的任一种。

在本申请一些实施例中,可以非限制性地以神经网络模型中的seq2seq模型为例,说明如何利用神经网络模型对事件分类进行学习。基本的seq2seq模型具有编码层和解码层两部分,其中编码器和解码器可以有多种,包括但不限于:CNN(Convolutional NeuralNetworks,卷积神经网络)、RNN(Recurrent Neural Network,循环神经网络)、LSTM(LongShort-Term Memory,长短期记忆网络)中的任一种,编码层部分可以将输入序列转化成一个固定长度的向量;解码层部分可以将固定长度的向量转化成输出序列。第一向量为编码层对输入信息进行处理之后得到的向量。

步骤302,获取字符向量经过神经网络模型中的全连接层的第二向量。

可以理解地,全连接层用于特征提取,全连接层可以将模型学到的分布式特征标识映射到样本标记空间中。

在本申请一些实施例中,该全连接层可以由多种操作实现。全连接层的处理队形为样本事件文本对应的字符向量,字符向量的编码方式包括但不限于one hot、TF-IDF(term frequency–inverse document frequency,词频-逆文本频率指数)中的任一种。经过全连接层的特征提取,模型会记录下输入信息中出现过的字符对应的字符向量。

步骤303,将第一向量和第二向量进行级联处理生成第三向量。

可以理解地,在进行事件分类的时候,模型输出的事件类型很多字符可能在输入信息中出现,例如:输入“川北片区校园足球联赛在三台落幕”,输出为“足球比赛落幕”,输入“A拳王下海拍《B电视剧》”,输出为“拍戏”。因此在解码层输出事件类型时,如果模型可以更加倾向输出出现在输入文本中的字符,那么模型的训练难度会降低,并且输出的事件类型也会更加贴近理想的事件类型。第二向量的加入会使得模型拥有上述功能。

在本申请一些实施例中,将第一向量和第二向量进行级联,该级联处理可以为向量的拼接,例如向量a=[1,2,3],向量b=[4,5,6],向量a和向量b级联就生成[1,2,3,4,5,6],该级联运算还可以为其他同时保留两个向量特征的运算。

步骤304,将第三向量输入到神经网络模型中的解码层。

可以理解地,神经网络模型的解码层的输入信息即为第三向量。

图4可以作为本申请实施例的一个神经网络模型的结构示意图,encoder为编码层,decoder为解码层,one hot为字符编码方法,FC(fully connected layer)为全连接层,X

根据本申请的实施例,本申请还提供了一种事件分类处理装置。

图5是根据本申请一个实施例的事件分类处理装置的结构框图。如图5所示,该事件分类处理装置500可以包括:第一获取模块510,第一处理模块520,第二处理模块530,训练模块540。

具体地,第一获取模块510,用于获取多个属于不同事件类型的样本事件集合,其中,每个样本事件集合包含多个属于相同事件类型的样本事件文本;

第一处理模块520,用于获取每个样本事件文本对应的字符向量;

第二处理模块530,用于对每个样本事件文本进行语义分析标注角色实体,获取与每个角色实体对应的词向量;

训练模块540,用于将每个样本事件文本对应的字符向量,以及角色实体对应的词向量作为预设神经网络模型的输入信息,以及将每个样本事件所属的样本事件集合对应的事件类型作为神经网络模型的输出信息,进而训练神经网络模型进行事件分类。

在本申请一些实施例中,如图6所示,该事件分类处理装置600中第一获取模块610还可以包括:第一获取单元611、聚类单元612、第二获取单元613、筛选单元614。

具体地,第一获取单元611,用于获取满足预设条件的候选事件文本;

聚类单元612,用于对候选事件文本进行聚类处理,生成多个属于不同事件类型的候选事件集合,其中,每个候选事件集合包含多个属于相同事件类型的候选事件文本;

第二获取单元613,用于提取每个候选事件集合的集合特征,并获取与每个集合特征对应的特征分值;

筛选单元614,用于根据与每个集合特征对应的特征分值从多个候选事件集合中选择满足筛选条件的多个样本事件集合。

其中,图6中610-640和图5中510-540具有相同功能和结构。

在本申请一些实施例中,如图7所示,该事件分类处理装置700还可以包括:第二获取模块750,第三获取模块760,级联模块770,输入模块780。

具体地,第二获取模块750,用于获取输入信息经过神经网络模型中的编码层的第一向量。

第三获取模块760,用于获取字符向量经过神经网络模型中的全连接层的第二向量。

级联模块770,用于将第一向量和第二向量进行级联处理生成第三向量。

输入模块780,用于将第三向量输入到神经网络模型中的解码层。

其中,图7中701-704和图6中604-604具有相同功能和结构。

关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。

图8示出了可以用来实施本申请的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。

如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元1001、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。

设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。

计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如事件分类处理方法。例如,在一些实施例中,事件分类处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的事件分类处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行事件分类处理方法。

本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,即本申请还提出了一种计算机程序,该计算机程序在被处理器执行时,实现上述实施例所描述的事件分类处理方法,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。

用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。

在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。

为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。

可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。

计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。

根据本申请实施例的技术方案,由于采用了无监督学习模型,并且没有采用预先定义的事件类型,因此可以应用于开放域。在进行神经网络模型训练的时候,输入信息还包括角色实体对应的词向量,该词向量的加入可以使得模型更容易提取事件类型,并且提取出的事件类型的信息会更加完善,具有更好的细粒度。在本申请一些实施例中,可以去除权重靠后的候选事件集合,使得模型的训练更加高效、有针对性,生成的事件类型也更加集中,同时避免了小样本造成的拟合性问题。同时,将输入信息的字符对应的字符向量输入解码层,使解码层输出的事件类型中包含输入信息自字符的概率更大,提高了模型的训练效率,降低了模型的训练难度,同时也更符合现实中人类进行事件分类的习惯。在本申请一些实施例中,还可以在集合特征中引入了候选事件文本的热度值,使得集合特征评价标准更加全面,根据此集合特征筛选得到的事件集合也会更有代表性。

应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。

上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

相关技术
  • 事件分类处理方法、装置、电子设备和存储介质
  • 短视频事件分类方法、系统、电子设备及存储介质
技术分类

06120112533078