天天看点

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

    在手淘的搜索中,当用户输入query进行搜索之后,一方面有适合他的商品展现出来,另一方面,如何更好地理解用户意图,为其推荐更合适的关键词进行细分查找,从而更高效的引导用户到他想找的商品,也是一件非常重要的事情。

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献
强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献
强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献
强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

    在这里,我们主要解决的问题是如何根据用户的历史以及实时行为,在当前query下,为他推荐更合适的锦囊类型,比如有的用户对品牌感兴趣,有的用户对风格感兴趣,那么就会根据实时的信息,在合适的页面展现合适的锦囊类型。以提高用户对锦囊的点击率,进而提升引导效率。

    整个强化学习位置调控是一个在线实时训练的过程,其框架图如下所示:

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

    锦囊模块:在判断具体出什么类型的锦囊时,需要的数据有用户的实时行为序列,从igraph中获取,同时还要从dii内存中获取强化学习的模型参数,然后综合判断当前需要出的锦囊类型。同时在当前session下,还需要实时的将已经出现过的类型写入igraph中,当用户再次翻页的时候,不会出现重复的锦囊类型。

    强化学习主要是通过与环境交互中的trail-and-error,来不断找到能使得累计奖赏最大的策略一种学习方法。

    在Model-Free的强化学习中,主要有两类方法,一类是Value-Based的方法,即利用值函数估计来选择最优的动作(比如Q(s,a)),也相应得到了更优的策略,比如Q-learning,SASAR,DQN等,另一类是Policy-Based的方法,采用直接优化策略的方法,比如TRPO,A3C等。 我们在锦囊调控的任务中主要使用过A3C,DQN两种方法。

1. DQN

    DQN是DeepMind在用DRL探索Atari游戏时提出的,其主要框架就是在传统的Q-learning方法中引入了DNN(CNN)来进行学习,并在此基础上加入了Experience Replay,Targrt Network等技巧,并在很多游戏上达到甚至超过人类玩家水平。在之后的几个工作里,也进行了进一步的完善和提高(Prioritised Replay, Double DQN,Duelling Network等等)。其中Nature版本的DQN伪代码如下所示:

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

2. A3C

    A3C算法的全称是asynchronous advantage actor-critic,其中actor-critic是在一般的policy-based方法中,也引入了值函数估计的方法来减少方差,如下图:

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

    而在利用bias term技术来减小方差时,采用了Advantage function来作为bias: 

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

    算法基本逻辑如下图:

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

    当用户在搜索中发出一个query,看到页面,把当前页面下用户的一些特征作为此时的状态,我们要学习的策略就是在这种状态下应该给出什么类型锦囊,从而转移到下一个页面下,reward也应该根据目标进行设定。

    1. state

    我们设计State能包含用户在当前query下的特征以及此时的实时特征,主要有:

    User 特征:性别,年龄,购买力等;

    User 历史上对锦囊综合的以及各类型锦囊的展现点击等情况;

    Query的特征;

    当前Query下锦囊综合的以及各类型锦囊的展现点击等点击情况;

    ……

    当前所在Page;

    当前页之前用户最近100次 PV中对各类型的点击情况;

    用户最近五个动作类型(点击,浏览,购买等);

    用户最近点击的五个商品的特征;

    我们学习的目标就是在当前页,对于特定用户状态,出什么类型的锦囊,因此这里我们直接把要出的锦囊类型作为动作。如下图:

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

    3. 奖赏函数

    Reward Function决定了我们想要引导锦囊agent去优化的方向,也即是优化目标。当我们设定了不同的目标时,reward应该做出相应的调整: 单纯最大化锦囊的CTR时,可以有类似下面的设定(其中,x表示当前query下点击的锦囊的页码)

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

    再结合引导成交等需求,可以有类似如下的设定:(其中,y, z, I代表翻页页数,点击次数,是否购买)

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

1. A3C

    锦囊候选类型,一开始没有引入属性pid类型,锦囊类型只有有限的几种,如相关搜索、选购热点、细选等,因此我们采取了A3C算法,直接把类型当做动作,用critic网络来学习值函数,用Actor网络来学习policy,actor网络最后输出的值经过softmax可以认为是采取各个动作的概率值,Actor网络形式如下所示:

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

2. DQN

    当我们把属性pid引入到锦囊中后,候选的锦囊类型(即动作)一下子增加到两万多种。如果我们还是采用之前的A3C方法,网络的输出需要有两万多个节点,显然是不适用的。因此,我们采取了用DQN+类型ID Embedding的形式来进行学习。也就是说,对每一个候选动作a,先进行embedding,再和s过来的节点进行concat,之后学习的就是他们的Q值,然后再每一个具体query下进行选择的时候,计算每一个可选的ID的Q value,从而进行决策,这里只用到了一个网络。如下图:

强化学习在锦囊位置调控上的探索和实践1. 背景 2. 系统框架 3. 基于强化学习的建模 4. 算法改进 5. 效果与展望 6. 参考文献

    由于我们获取的是实时数据,这就可能导致不同的时间段获取到的用户分布差异较大,从而实时学习的模型对受到数据的影响,导致学习方差加大。

    为了减弱这一影响,可以利用Stratified Sampling技术。比如,可以对用户的年龄分布,性别分布,购买力分布进行统计,获取一个较为稳定的比例。之后,在一般的random replay的基础上做一些改变,每次的采样遵循此比例进行分层的采样方法,使得样本更加的稳定,学习的方差也会更小。

    除了用户群体分布变化之外,每一天不同时间段的用户总数,用户使用习惯也会发生变化,从而导致了非模型引发的reward变化(模型没有变化,整体CTR发生提高,reward提高,而误认为是模型的正向作用),这就使得学习的评价指标不稳定,可能产生波动的情况。

    因此,我们加上了一个比较基准,利用kmonitor实时的统计基准桶里面的用户行为,CTR等信息,利用此来修正reward,比如可以设置为: reward=原始reward-基准桶reward(强迫模型朝着比基准桶更好的方向发展,而不是受一天中不同时间段的影响)。

    在采样方法上,在传统强化学习的方法之外,也尝试了Thompson Sampling的方法,该方法主要是去维持每一个类型beta分布来进行学习。

    在采取了上述方法后,与基准桶相比,线上的CTR和使用UV得到了一定程度的提升(10个点左右)。

    这是一次RL在此类任务上的探索,应该说至少证明了RL是可以胜任这类问题的,不过由于目前每一个query下候选的锦囊类型过少,直接采用一般的监督学习方法,CTR预估等应该就可以达到比较好的结果。

    另外,综合考虑,直接决定与用户交互的词语,内容,可能是更好的选择,更加能给用户提供帮助。后续锦囊这个产品可以考虑引入更多的交互,这一块用DL+RL也能很自然的得到一定的结果。

Sutton, Richard S., and Andrew G. Barto. Reinforcement learning: An introduction. Vol. 1. No. 1. Cambridge: MIT press, 1998.

Mnih, Volodymyr, et al. "Playing atari with deep reinforcement learning." arXiv preprint arXiv:1312.5602 (2013).

Mnih, Volodymyr, et al. "Human-level control through deep reinforcement learning." Nature 518.7540 (2015): 529-533.

Mnih, Volodymyr, et al. "Asynchronous methods for deep reinforcement learning." International Conference on Machine Learning. 2016.

Schulman, John, et al. "Trust region policy optimization." Proceedings of the 32nd International Conference on Machine Learning (ICML-15). 2015 

继续阅读