掌桥专利:专业的专利平台
掌桥专利
首页

用于帖子推荐的方法、电子设备和存储介质

文献发布时间:2023-06-19 13:49:36


用于帖子推荐的方法、电子设备和存储介质

技术领域

本公开的实施例总体涉及信息处理领域,具体涉及用于帖子推荐的方法、电子设备和计算机存储介质。

背景技术

随着技术的发展,利用大量数据来训练模型,以进行诸如个性化推荐,也变得比较流行。但是对于某些场景,其数据量可能并不多,基于这些场景下的少量数据训练的模型的使用效果不佳。

发明内容

提供了一种用于帖子推荐的方法、电子设备以及计算机存储介质,能够实现多个场景的模型参数迁移到目标场景,提高了目标场景中的模型训练速度和帖子推荐准确度。

根据本公开的第一方面,提供了一种用于数据项推荐的方法。该方法包括:获取与多个神经网络模型相关联的多个第一模型参数集,多个神经网络模型应用于多个场景;基于多个第一模型参数集,经由随机丢弃层,生成多个第二模型参数集;基于多个第二模型参数集,经由混合专家层,生成目标模型参数集;基于目标模型参数集以及与目标场景中的多个用户相关联的用户属性数据和帖子点击数据,训练目标神经网络模型,以生成经训练的目标神经网络模型和与多个用户相关联的多个用户特征表示;以及基于多个用户特征表示,经由经训练的目标神经网络模型,预测关于目标场景中用户针对帖子的点击概率,以用于在目标场景中基于所述点击概率向用户推荐帖子。

根据本公开的第二方面,提供了一种电子设备。该电子设备包括:至少一个处理器,以及与至少一个处理器通信连接的存储器,其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据第一方面所述的方法。

在本公开的第三方面中,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现根据本公开的第一方面的方法。

应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。

附图说明

结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标注表示相同或相似的元素。

图1是根据本公开的实施例的信息处理环境100的示意图。

图2是根据本公开的实施例的用于帖子推荐的方法200的示意图。

图3是根据本公开的实施例的用于获取与多个神经网络模型相关联的多个第一模型参数集的方法300的示意图。

图4是根据本公开的实施例的用于生成目标模型参数集的方法400的示意图。

图5是根据本公开的实施例的用于生成多个门控值的方法500的示意图。

图6是根据本公开的实施例的循环神经网络单元600的示意框图。

图7是根据本公开的实施例的混合专家层700的示意框图。

图8是用来实现本公开实施例的用于帖子推荐的方法的电子设备的框图。

具体实施方式

以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。

如上所述,传统方案对于少量数据的场景训练的模型效果不佳。如何利用应用于具有大量数据的多个场景的多个神经网络模型的参数来训练具有少量数据的目标场景的目标神经网络模型是需要解决的问题,从而提高目标神经网络模型的训练速度和效果。

为了至少部分地解决上述问题以及其他潜在问题中的一个或者多个,本公开的示例实施例提出了一种用于帖子推荐的方案。在该方案中,计算设备获取与多个神经网络模型相关联的多个第一模型参数集,多个神经网络模型应用于多个场景。计算设备基于多个第一模型参数集,经由随机丢弃层,生成多个第二模型参数集,以及基于多个第二模型参数集,经由混合专家层,生成目标模型参数集。计算设备基于目标模型参数集以及与目标场景中的多个用户相关联的用户属性数据和帖子点击数据,训练目标神经网络模型,以生成经训练的目标神经网络模型和与多个用户相关联的多个用户特征表示。随后计算设备基于多个用户特征表示,经由经训练的目标神经网络模型,预测关于目标场景中用户针对帖子的点击概率,以用于在目标场景中基于所述点击概率向用户推荐帖子。以此方式,能够实现多个场景的模型参数迁移到目标场景,提高了目标场景中的模型训练速度和帖子推荐准确度。

在下文中,将结合附图更详细地描述本方案的具体示例。

图1示出了根据本公开的实施例的信息处理环境100的示例的示意图。信息处理环境100可以包括计算设备110、多个场景120120-1至120-3(统称为120)、应用与多个场景120的多个神经网络模型130-1至130-3(统称为130)、目标场景140和目标神经网络模型150。应当理解,虽然图1中示出了3个场景和3个神经网络模型,但这只是举例说明,也可以包括更多或更少场景和神经网络模型,本公开的范围在此不受限制。

计算设备110例如包括但不限于服务器计算机、多处理器系统、大型计算机、包括上述系统或设备中的任意一个的分布式计算环境等。在一些实施例中,计算设备110可以具有一个或多个处理单元,包括诸如图像处理单元GPU、现场可编程门阵列FPGA和专用集成电路ASIC等的专用处理单元以及诸如中央处理单元CPU的通用处理单元。

计算设备110用于获取与多个神经网络模型130相关联的多个第一模型参数集,多个神经网络模型130应用于多个场景120;基于多个第一模型参数集,经由随机丢弃层,生成多个第二模型参数集;基于多个第二模型参数集,经由混合专家层,生成目标模型参数集;基于目标模型参数集以及与目标场景150中的多个用户相关联的用户属性数据和帖子点击数据,训练目标神经网络模型140,以生成经训练的目标神经网络模型140和与多个用户相关联的多个用户特征表示;以及基于多个用户特征表示,经由经训练的目标神经网络模型140,预测关于目标场景150中用户针对帖子的点击概率,以用于在目标场景150中基于所述点击概率向用户推荐帖子。

由此,能够实现多个场景的模型参数迁移到目标场景,提高了目标场景中的模型训练速度和帖子推荐准确度。

图2示出了根据本公开的实施例的用于帖子推荐的方法200的流程图。例如,方法200可以由如图1所示的计算设备110来执行。应当理解的是,方法200还可以包括未示出的附加框和/或可以省略所示出的框,本公开的范围在此方面不受限制。

在框202处,计算设备110获取与多个神经网络模型130相关联的多个第一模型参数集,多个神经网络模型应用于多个场景120。

多个场景120例如包括但不限于多个社交场景。例如,相同应用中可以包括不同社交广场,例如推荐广场,地理广场,标签广场等。多个场景120可以包括用户流量相对较高的至少一个场景,例如推荐广场。

多个神经网络模型130例如可以包括但不限于多个推荐模型。

在框204处,计算设备110基于多个第一模型参数集,经由随机丢弃层,生成多个第二模型参数集。

具体来说,随机丢弃层(dropout)可以以一定概率使得神经元失活,也就是输出为0。例如,可以通过伯努利函数随机生成包括0和1的矩阵,将这个矩阵与多个第一模型参数集进行计算后,生成多个第二模型参数集。

由此,能够通过随机丢弃层解决过拟合问题并提高模型泛化能力。

在框206处,计算设备110基于多个第二模型参数集,经由混合专家层(Mixture ofExperts,MoE),生成目标模型参数集。

图7示出了根据本公开实施例的混合专家层700的示意框图。如图7所示,混合专家层700包括门控网络720和多个专家层730-1至730-n。门控网络720基于输入数据710,生成两个非零门控值740-1和740-2。与这两个非零门控值相对应的专家层730-2和730-n-1基于输入数据710,输出两个预测结果750-1和750-2。预测结果750-1与非零门控值740-1经由乘法单元760-1相乘得到第一乘积770-1,预测结果750-2与非零门控值740-2经由第二乘法单元760-2相乘得到第二乘积770-2,第一乘积770-1和第二乘积770-2经由加法单元780相加后得到混合专家层700的输出790。应当理解,图中示出2个非零门控值、两个专家层以及两个乘法单元参与计算仅是示例,可以是涉及更多数量。下文将结合图4详细描述用于生成目标模型参数集的方法。

在框208处,计算设备110基于目标模型参数集以及与目标场景140中的多个用户相关联的用户属性数据和帖子点击数据,训练目标神经网络模型150,以生成经训练的目标神经网络模型150和与多个用户相关联的多个用户特征表示。

目标场景140例如包括但不限于用户流量相对较低的场景,例如关注广场。

在一些实施例中,目标模型参数集可以包括嵌入层参数和输出层参数。嵌入层参数例如可以表示为嵌入矩阵,输出层参数例如可以表示为输出矩阵。计算设备110可以通过重复以下步骤来训练目标神经网络模型150,直至目标神经网络模型150收敛。

首先,计算设备110基于用户属性数据和嵌入层参数,生成多个用户特征表示。

例如,首先将用户属性数据通过one hot编码转换成多个初始特征表示,再将多个初始特征表示与嵌入层参数进行矩阵乘法,生成多个用户特征表示。用户属性数据例如包括但不限于用户标识、用户年龄、用户住所、用户标签等。

随后,计算设备110基于多个用户特征表示和输出层参数,生成与多个用户相关联的预测帖子点击概率集。

接着,计算设备110基于帖子点击数据、预测帖子点击概率集和预定损失函数,经由梯度下降,更新目标模型参数集。如果目标模型参数集的更新值集满足预定收敛条件(例如任一更新值均小于预定值),则目标神经网络模型150收敛,从而得到经训练的目标神经网络模型150和多个用户特征表示,否则回到上面重新生成多个用户特征表示。

在框210处,计算设备110基于多个用户特征表示,经由经训练的目标神经网络模型150,预测关于目标场景140中用户针对帖子的点击概率,以用于在目标场景140中基于点击概率向用户推荐帖子。

在一些实施例中,目标神经网络模型150可以包括推荐模型。推荐模型可以采用任何合适的推荐模型,例如包括但不限于wide&deep模型。例如,将多个用户特征表示输入到wide&deep模型,应当理解wide&deep模型也可以输入其他的特征,本公开的实施例对此不做限制。通过联合训练,得到关于用户针对帖子的点击概率。wide模型例如y=w

由此,能够实现多个场景的模型参数迁移到目标场景,提高了目标场景中的模型训练速度和帖子推荐准确度。

在一些实施例中,生成的多个用户特征表示可以用于多个神经网络模型130的训练。具体来说,计算设备110可以从多个用户中确定与多个场景120中的第一场景相关联的至少一个用户。

随后,计算设备110可以从多个用户特征表示获取与至少一个用户相关联的至少一个用户特征表示。

接着,计算设备110可以基于至少一个用户特征表示和第一场景中与至少一个用户相关联的帖子点击数据,训练多个神经网络模型中应用于第一场景的第一神经网络模型,以用于更新与第一神经网络模型相关联的第一模型参数集。

由此,能够通过用户特征表示共享,实现目标场景生成的用户特征表示也能用于其他场景的模型训练,实现协同,提高效率。

此外,计算设备110还可以基于至少一个用户特征表示,经由经训练的第一神经网络模型,预测关于第一场景中用户针对帖子的点击概率。

随后,计算设备110基于点击概率,在第一场景中向用户推荐帖子。

由此,能够通过用户特征表示共享,实现目标场景生成的用户特征表示也能用于其他场景的帖子推荐,实现协同,提高效率。

图3示出了根据本公开的实施例的用于获取与多个神经网络模型相关联的多个第一模型参数集的方法300的流程图。例如,方法300可以由如图1所示的计算设备110来执行。应当理解的是,方法300还可以包括未示出的附加框和/或可以省略所示出的框,本公开的范围在此方面不受限制。对于与多个神经网络模型130中的每个神经网络模型,方法300可以包括以下步骤。

在框302处,计算设备110获取神经网络模型在多个时刻的多个第三模型参数集。

多个时刻可以是距离当前时刻预定时间窗口内的多个时刻,例如是按照预定时间间隔隔开的。预定时间窗口例如为1小时,预定时间间隔例如为10分钟。应当理解,这只是举例说明,本公开的范围在此不受限制。

对于多个时刻中的每个时刻,按照时间先后顺序,迭代执行以下步骤。

在框304处,计算设备110基于与该时刻的前一时刻相关联的先前隐含状态和与该时刻相关联的第三模型参数集,经由两个门控层,生成第一门控状态和第二门控状态。

应当理解,对于与最早时刻相关联的第三模型参数集来说,由于不存在前一第三模型参数集,因此可以将先前隐含状态确定为随机化的隐含状态。

可以将先前隐含状态和与该时刻相关联的第三模型参数集进行拼接作为输入分别输入两个门控层。如图6所示,将先前隐含状态Ht-1和与时刻t相关联的第三模型参数集X

x

其中,h

第一门控状态可以通过以下公式来生成。

r

其中,σ表示sigmoid函数,W

第二门控状态可以通过以下公式来生成。

z

其中,W

在框306处,计算设备110基于第一门控状态和先前隐含状态,生成经更新的先前隐含状态。

例如,可以通过计算第一门控状态和先前隐含状态之间的hadamard积(也就是按元素相乘),也就是第一门控状态和先前隐含状态之间的对应元素相乘,生成经更新的先前隐含状态,例如r

在框308处,计算设备110基于经更新的先前隐含状态和与该时刻相关联的第三模型参数集,生成候选隐含状态。

可通过以下公式来生成候选隐含状态。

其中,r

如图6所示,经更新的先前隐含状态和与时刻t相关联的第三模型参数集X

在框310处,计算设备110基于先前隐含状态、候选隐含状态和第二门控状态,生成与该时刻相关联的隐含状态。

可以通过以下公式来生成与该时刻t相关联的隐含状态。

如图6所示,第二门控状态Z

在框312处,计算设备110确定该时刻是否为多个时刻中的最后时刻。

如果在框312处计算设备110确定该时刻不是多个时刻中的最后时刻,则对于下一时刻,回到步骤304。

如果在框312处计算设备110确定该时刻是多个时刻中的最后时刻,则在框314处基于与最后时刻相关联的隐含状态,经由输出层,生成与神经网络模型相关联的第一模型参数集。

在一些实施例中,输出层可以为全连接层。

由此,能够有序获得其他场景分时段的模型参数,便于目标场景的模型训练更加平稳。

图4示出了根据本公开的实施例的用于生成目标模型参数集的方法400的流程图。例如,方法400可以由如图1所示的计算设备110来执行。应当理解的是,方法400还可以包括未示出的附加框和/或可以省略所示出的框,本公开的范围在此方面不受限制。

在框402处,计算设备110基于多个第二模型参数集,经由门控网络,生成多个门控值,多个门控值中包括预定数量个非零门控值。

下文结合图5详细说明用于生成多个门控值的方法。

在框404处,计算设备110基于多个第二模型参数集中与预定数量个非零门控值相对应的预定数量个第二模型参数集,经由预定数量个专家层,生成预定数量个预测模型参数集。

在一些实施例中,预定数量个专家层包括预定数量个全连接层。

在框406处,计算设备110基于预定数量个非零门控值和预定数量个预测模型参数集,生成目标模型参数集。

例如可以将预定数量个非零门控值和预定数量个预测模型参数集通过加权方式生成目标模型参数集。

由此,无需计算门控值为零的专家层运算,从而减少了计算量。

图5示出了根据本公开的实施例的用于生成多个门控值的方法500的流程图。例如,方法500可以由如图1所示的计算设备110来执行。应当理解的是,方法500还可以包括未示出的附加框和/或可以省略所示出的框,本公开的范围在此方面不受限制。

在框502处,计算设备110基于多个第二模型参数集和门控权重矩阵,生成多个第一值。

在框504处,计算设备110基于多个第二模型参数集和噪声权重矩阵,生成多个第二值。

在框506处,计算设备110基于多个第一值和多个第二值,生成多个候选门控值。

可以通过以下公式来生成候选门控值。

H(x)

其中,x表示多个第二模型参数集,W

在框508处,计算设备110将多个候选门控值中不位于前预定数量位的候选门控值设置为预定值。

例如可以通过以下公式来实现。

K为预定数量,例如为2,预定值例如为负无穷大。

在框510处,计算设备110基于多个候选门控值,经由预定激活函数,生成多个门控值,预定激活函数将被设置为预定值的候选门控值转换为值为零的门控值。

可通过如下公式来生成门控值。

G(x)=Softmax(KeepTopK(H(x),k))

Softmax将候选门控值转换到位于0到1的范围内的门控值,对于负无穷大的候选门控值而言,其被转换为0的门控值。

由此,能够实现稀疏化的门控,从而减少计算量。

图8示出了可以用来实施本公开内容的实施例的示例设备800的示意性框图。例如,如图1所示的计算设备110可以由设备800来实施。如图所示,设备800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的计算机程序指令或者从存储单元808加载到随机存取存储器(RAM)803中的计算机程序指令,来执行各种适当的动作和处理。在随机存取存储器803中,还可存储设备800操作所需的各种程序和数据。中央处理单元801、只读存储器802以及随机存取存储器803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。

设备800中的多个部件连接至输入/输出接口805,包括:输入单元806,例如键盘、鼠标、麦克风等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。

上文所描述的各个过程和处理,例如方法200-500,可由中央处理单元801执行。例如,在一些实施例中,方法200-500可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由只读存储器802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序被加载到随机存取存储器803并由中央处理单元801执行时,可以执行上文描述的方法200-500的一个或多个动作。

本公开涉及方法、装置、系统、电子设备、计算机可读存储介质和/或计算机程序产品。计算机程序产品可以包括用于执行本公开的各个方面的计算机可读程序指令。

计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是--但不限于--电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。

这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。

用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。

这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。

这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。

也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。

附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

相关技术
  • 用于帖子推荐的方法、电子设备和存储介质
  • 一种帖子推荐方法、装置、设备和存储介质
技术分类

06120113822251