掌桥专利:专业的专利平台
掌桥专利
首页

一种强化学习的营销决策方法、装置及计算机可读存储介质

文献发布时间:2023-06-19 19:27:02


一种强化学习的营销决策方法、装置及计算机可读存储介质

技术领域

本发明属于强化学习领域,具体涉及一种强化学习的营销决策方法、装置及计算机可读存储介质。

背景技术

本部分旨在为权利要求书中陈述的本发明的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。

因此,在推荐营销系统中,为了促使用户购买商品,通常会在营销信息中向用户提供一定的营销权益,如优惠券等。例如,可以向用户推送申购某商品类别的满减权,以促使用户购买该类商品。

因此,如何实现更为精准营销是一个亟待解决的问题。

发明内容

针对上述现有技术中存在的问题,提出了一种强化学习的营销决策方法、装置及计算机可读存储介质,利用这种方法、装置及计算机可读存储介质,能够解决上述问题。

本发明提供了以下方案。

第一方面,提供一种基于强化学习的营销决策方法,包括:获取状态时序特征,利用策略网络预测对应的多个营销行为;将状态时序特征和多个营销行为输入Q函数,动态决策最优策略;获取用户针对营销行为的反馈操作,根据反馈操作和营销行为的成本确定奖励;基于奖励优化Q函数。

在一种实施方式,营销行为的成本包括浮动营销成本和固定营销成本;营销行为的成本和奖励负相关。

在一种实施方式,浮动营销成本和用户客群重叠度正相关。

在一种实施方式,浮动营销成本和用户承兑营销权益的成本正相关。

在一种实施方式,状态时序特征包括:用户基础特征、用户行为时序特征和营销场景时序特征。

在一种实施方式,用户行为时序特征至少包括以下中的一种或多种:用户在多个平台的消费行为时序特征,用户的行为埋点特征,用户的消费客单价时序特征。

在一种实施方式,营销场景时序特征包括:营销活动的文本的嵌入式表达;和/或,营销活动的目标客群相关度。

在一种实施方式,还包括:获取用户针对营销行为的一种或多种反馈行为,反馈行为包括以下中的一种或多种:登录行为、点击行为和支付行为;确定每种反馈行为的动态权重;基于动态权重对每种反馈行为进行加权,优化奖励。

在一种实施方式,还包括:将用户针对营销行为的登录行为、点击行为和支付行为进行融合,获得评分;根据评分优化损失函数。

在一种实施方式,利用以下公式融合登录行为、点击行为和支付行为:

score

其中,login

在一种实施方式,确定目标营销行为的奖励,还包括:惩罚用户的以下一种或多种漏损反馈行为:用户点击后没有消费转化的第一漏损反馈行为;用户曝光后没有点击转化的第二漏损反馈行为;用户点击后没有登录转化的第三漏损反馈行为。

在一种实施方式,确定目标营销行为的奖励,包括:reward

在一种实施方式,利用以下公式动态决策最优营销行为:

第二方面,提供一种基于强化学习的营销决策装置,包括:策略网络,用于获取状态时序特征,利用策略网络预测对应的多个营销行为;决策网络,用于将状态时序特征和多个营销行为输入Q函数,动态决策最优策略;奖励模块,用于获取用户针对营销行为的反馈操作,根据反馈操作和营销行为的成本确定奖励;基于奖励优化Q函数和策略网络。

第三方面,提供一种基于强化学习的营销决策装置,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行:如第一方面的方法。

第四方面,提供一种计算机可读存储介质,计算机可读存储介质存储有程序,当程序被多核处理器执行时,使得多核处理器执行如第一方面的方法。

上述实施例的优点之一,通过用户的状态时序特征进行预测,并基于用户针对营销行为的反馈操作、营销行为的成本确定奖励来优化智能体。能够实现更为精准的营销。

本发明的其他优点将配合以下的说明和附图进行更详细的解说。

应当理解,上述说明仅是本发明技术方案的概述,以便能够更清楚地了解本发明的技术手段,从而可依照说明书的内容予以实施。为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举例说明本发明的具体实施方式。

附图说明

通过阅读下文的示例性实施例的详细描述,本领域普通技术人员将明白本文所述的优点和益处以及其他优点和益处。附图仅用于示出示例性实施例的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的标号表示相同的部件。在附图中:

图1为根据本发明一实施例的基于强化学习的营销决策装置的结构示意图;

图2为根据本发明一实施例的基于强化学习的营销决策方法的流程示意图;

图3为根据本发明一实施例的基于强化学习的营销决策装置的结构示意图;

图4为根据本发明又一实施例的基于强化学习的营销决策装置的结构示意图。

在附图中,相同或对应的标号表示相同或对应的部分。

具体实施方式

下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域技术人员。

在本申请实施例的描述中,应理解,诸如“包括”或“具有”等术语旨在指示本说明书中所公开的特征、数字、步骤、行为、部件、部分或其组合的存在,并且不旨在排除一个或多个其他特征、数字、步骤、行为、部件、部分或其组合存在的可能性。

除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。

术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。

为清楚阐述本申请实施例,首先将介绍一些后续实施例中可能会出现的概念。

概念描述

强化学习用于描述和解决智能体在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。在强化学习中,智能体通过与环境进行交互获得的回报来指导动作,目标是使得智能体获得的累积回报最大,智能体的每次动作都可以从环境得到相应的回报,多个连续动作的回报之和是智能体获得的累积回报。具体而言,智能体观察并获得执行环境的状态(state),根据一定策略,针对当前执行环境的状态确定要采取的行为或动作(action)。这样的行为作用于执行环境,会改变执行环境的状态,同时产生一个反馈给智能体,该反馈又称为奖励分数(reward)。智能体根据获得的奖励分数来判断,之前的行为是否正确,策略是否需要调整,进而更新其策略。通过反复不断地观察状态、确定行为、收到反馈,使得智能体可以不断更新策略,最终目标是能够学习到一个策略,使得获得的奖励分数累积最大化。强化学习可以用马尔可夫决策过程(Markov Decision Process,MDP)来描述。

另外还需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。

如图1所示,图1是本发明实施例方案涉及的硬件运行环境的结构示意图。

需要说明的是,图1即可为基于强化学习的营销决策设备的硬件运行环境的结构示意图。本发明实施例基于强化学习的营销决策设备可以是PC,便携计算机等终端设备。

如图1所示,该基于强化学习的营销决策设备可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。

本领域技术人员可以理解,图1中示出的基于强化学习的营销决策设备结构并不构成对基于强化学习的营销决策设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。

如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于区块链的信息传输程序。其中,操作系统是管理和控制基于强化学习的营销决策设备硬件和软件资源的程序,支持基于强化学习的营销决策程序以及其它软件或程序的运行。

在图1所示的基于强化学习的营销决策设备中,用户接口1003主要用于接收第一终端、第二终端和监管终端发送的请求、数据等;网络接口1004主要用于连接后台服务器与后台服务器进行数据通信;而处理器1001可以用于调用存储器1005中存储的基于强化学习的营销决策程序,并执行以下操作:

获取状态时序特征,利用策略网络预测对应的多个营销行为;将状态时序特征和多个营销行为输入Q函数,动态决策最优策略;获取用户针对营销行为的反馈操作,根据反馈操作和营销行为的成本确定奖励;基于奖励优化Q函数和策略网络。由此,能够提升营销精准化程度。

图2为根据本申请一实施例的基于强化学习的营销决策方法的流程示意图,在该流程中,从设备角度而言,执行主体可以是一个或者多个电子设备;从程序角度而言,执行主体相应地可以是搭载于这些电子设备上的程序。在本实施例中,方法的执行主体可以是图1所示实施例中的处理器。

参考图3,强化学习的智能体可以包括策略网络和决策网络(也即Q函数网络),环境可以包括用户,动作行为可以包括营销行为,比如以设定方式向用户推送设定额度的优惠券列表等;环境的状态可以包括用户的状态信息;智能体从环境接收到的奖励可以包括用户的反馈行为的业务反馈信息,比如,是否点击、是否核销、是否支付等。

如图2所示,本实施例提供的方法可以包括以下步骤:

步骤210,获取状态时序特征,利用策略网络预测对应的营销行为;

具体地,智能体使用策略网络在状态s生成动作a。该策略网络是预先基于历史信息离线训练出来的,能够基于该状态时序特征预测合适的营销行为。策略网络使用Q函数网络反向传播的策略梯度,使用梯度上升的方法最大化Q估计,从而不断优化营销策略。在整个学习过程中,只需要根据Q函数返回的策略梯度最大化Q估计。决策网络不断优化自己对Q(s,a)的估计,策略网络通过决策网络的判断的梯度,求解更好的策略函数。如此往复,直到策略网络收敛到最优策略的同时,决策网络收敛到最准确的Q(s,a)估计。

在一种实施方式,上述状态时序特征包括:用户基础特征、用户行为时序特征和营销场景时序特征。

状态时序特征来自于智能体(Agent)对环境(Environment)的感知观察,在策略预测场景下即表征了用户的意图和所处场景,可以使用上述特征表达用户所处的时间、地点、场景,以及更长时间周期内用户行为习惯的挖掘。

其中,用户是指任意一个被推送营销活动的用户。

用户基础特征,即为能够代表用户的一些特点。具体的,用户基础特征可以包括用户年龄、性别、职业、居住地等等信息。还可以是用户使用进行决策的应用程序提供的各服务的情况,如在是否开通会员、是否开通支付功能、是否使用过云盘等。

用户行为时序特征,能够表征用户意图。可以是操作轨迹信息,也即用户在当前一段时间进行了哪些操作,例如可以通过动作埋点获取得到点击/购买/收藏动作;也可以是页面轨迹信息,也即用户在当前一段时间浏览过哪些页面。

营销场景时序特征,能够表征用户所处营销场景。

本实施例中,将用户基础特征、用户行为时序特征和营销场景时序特征拼接为上述状态时序特征,用于表征用户的当前状态和营销权益的当前状态。

在一种实施方式,用户行为时序特征至少包括:用户在多个平台的消费行为时序特征,用户的行为埋点特征,用户的消费客单价时序特征中的一种或多种。

在一种实施方式,营销场景时序特征包括:营销活动的文本的嵌入式表达;和/或,营销活动的目标客群相关度。

例如,可以接收到flink中的实时特征数据后获取上述用户行为时序特征。

营销网络可以维护多种营销策略,营销行为可以是基于多种候选策略预测出的多种营销行为。各个营销行为的确定至少包括选择和确定营销渠道、营销内容和营销时段,至少基于这三个因素的组合形成营销行为。换而言之,智能体在获取到用户信息以及场景信息的情况下,根据多种营销策略确定,针对该场景下的当前用户,应该在什么样时机,用什么渠道,向用户推荐什么内容的营销信息。

步骤220,将状态时序特征和营销行为输入Q函数网络,动态决策最优策略;

具体地,智能体使用Q函数决策网络评估在状态s下执行各种动作a的动作价值函数Q(s,a),动作价值函数最大的动作对应的策略即最优策略。该Q函数网络也可以预先基于历史信息离线训练出来,以保证其在初始情况下的准确度。

策略网络的目标在于使得其生成的营销行为对应的动作价值函数最大。

步骤230,获取用户针对营销行为的反馈操作,根据反馈操作和营销行为的成本确定奖励;

用户针对营销行为的反馈行为包括:登录行为、点击行为和支付行为等等。比如,针对发放的优惠券列表[A、B、C、D、E],用户点击对应优惠券的向量表示为[0,1,0,1,1],用户核销对应优惠券进行支付的向量表示为[0,0,0,0,1],可以看出,用户均点击了该B、D优惠券但并没有进行支付,用户点击并使用了E优惠券,进而可以看出,用户在当下场景下偏向于E优惠券,可以对此种营销行为进行奖励。

在一种实施方式,营销行为的成本包括浮动营销成本和固定营销成本;营销行为的成本和奖励负相关,可以理解,商户期望利用更少的营销成本来获取更高的营销奖励,因此营销成本越高,实际获得的奖励越低。

固定营销成本比如可以是某项营销活动触达用户的成本,还可以包括用户转化该营销活动所得到的权益,等等。

浮动营销成本可以根据用户客群重叠度或用户承兑营销权益等信息确定。其中,浮动营销成本和用户客群重叠度正相关。例如,某个营销活动的用户客群重叠度越高,说明其付出了不必要的重复营销成本。浮动营销成本和用户承兑营销权益的成本正相关。例如,某个营销活动,用户此前已经承兑该项营销活动的营销权益,当前再次参与的可能性降低,说明其付出了转化率较低的重复营销成本。通过设置上述惩罚项,能够降低营销活动总是触达同一客群的影响。

在一种实施方式,在实际上线测试过程中,根据对于点击率、消费转化率的不同个性化需求,可以根据实际业务场景确定每种反馈行为的动态权重;基于动态权重对每种反馈行为进行加权,优化奖励。

也即,可以使reward

在一种实施方式,还包括:将用户针对营销行为的登录行为、点击行为和支付行为进行融合,获得评分;根据评分优化损失函数。

在一种实施方式,利用以下公式融合登录行为、点击行为和支付行为:

score

其中,login

申请人发现,强化学习的策略可能上线初期效果很好,在点击和下单指标上都取得了一定的提升,但在后续会逐渐下降,比如智能体学习到了让用户与推荐系统更多交互,从而获取更多曝光和转化机会的策略,但这种策略对于部分强烈下单意图用户的体验是有伤害的,因为这部分用户意图转化的代价变高了,因而对优惠券的期望变低。

针对这种情况,本实施例在奖励塑形中加入3个惩罚项,具体包括惩罚用户的以下一种或多种漏损反馈行为:用户点击后没有消费转化的第一漏损反馈行为;用户曝光后没有点击转化的第二漏损反馈行为;用户点击后没有登录转化的第三漏损反馈行为。如此,可以提升消费转换率。

在一种实施方式,本实施例采用以下奖励函数来确定目标营销行为的奖励:

reward

其中,w

步骤240,基于奖励优化智能体的策略网络和Q函数网络。

优化目标是使智能体在多轮交互中获得的收益最大化,可以利用以下公式动态决策最优营销行为:

其中,W

在本说明书的描述中,参考术语“一些可能的实施方式”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。

流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。

关于本申请实施例的方法流程图,将某些操作描述为以一定顺序执行的不同的步骤。这样的流程图属于说明性的而非限制性的。可以将在本文中所描述的某些步骤分组在一起并且在单个操作中执行、可以将某些步骤分割成多个子步骤、并且可以以不同于在本文中所示出的顺序来执行某些步骤。可以由任何电路结构和/或有形机制(例如,由在计算机设备上运行的软件、硬件(例如,处理器或芯片实现的逻辑功能)等、和/或其任何组合)以任何方式来实现在流程图中所示出的各个步骤。

基于相同的技术构思,本发明实施例还提供一种基于强化学习的营销决策装置,用于执行上述任一实施例所提供的基于强化学习的营销决策方法。图4为本发明实施例提供的一种基于强化学习的营销决策装置结构示意图。

如图4所示,装置400包括:

策略网络410,用于获取状态时序特征,利用策略网络预测对应的多个营销行为;

决策网络420,用于将状态时序特征和多个营销行为输入Q函数,动态决策最优策略;

奖励模块430,用于获取用户针对营销行为的反馈操作,根据反馈操作和营销行为的成本确定奖励;

优化模块440,用于基于奖励优化Q函数和策略网络。

需要说明的是,本申请实施例中的装置可以实现前述方法的实施例的各个过程,并达到相同的效果和功能,这里不再赘述。

根据本申请的一些实施例,提供了基于强化学习的营销决策方法的非易失性计算机存储介质,其上存储有计算机可执行指令,该计算机可执行指令设置为在由处理器运行时执行:上述实施例所述的方法。

计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。

本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备和计算机可读存储介质实施例而言,由于其基本相似于方法实施例,所以其描述进行了简化,相关之处可参见方法实施例的部分说明即可。

本申请实施例提供的装置、设备和计算机可读存储介质与方法是一一对应的,因此,装置、设备和计算机可读存储介质也具有与其对应的方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述装置、设备和计算机可读存储介质的有益技术效果。

虽然已经参考若干具体实施方式描述了本发明的精神和原理,但是应该理解,本发明并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。

相关技术
  • 一种车牌识别方法、装置、计算机装置及计算机可读存储介质
  • 一种元数据存储方法、装置、设备及计算机可读存储介质
  • 一种存储集群告警方法、装置和计算机可读存储介质
  • 一种数据存储方法、装置、设备及计算机可读存储介质
  • 一种检测方法、装置、计算机可读存储介质和计算机设备
  • 一种营销策略的更新方法、装置和计算机可读存储介质
  • 一种提升银行业务营销效率的方法、装置、计算机设备、和可读存储介质
技术分类

06120115918511