天天看点

推荐系统排序模型之FM

FM论文地址:https://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf

1、FM背景

在计算广告和推荐系统中,CTR预估(click-through rate)是非常重要的一个环节,判断一个商品的是否进行推荐需要根据CTR预估的点击率来进行。在进行CTR预估时,除了单特征外,往往要对特征进行组合。对于特征组合来说,业界现在通用的做法主要有两大类:FM系列与Tree系列。今天,我们就来讲讲FM算法。

2、one-hot编码带来的问题

FM(Factorization Machine)主要是为了解决数据稀疏的情况下,特征怎样组合的问题。已一个广告分类的问题为例,根据用户与广告位的一些特征,来预测用户是否会点击广告。数据如下:(本例来自美团技术团队分享的paper)

推荐系统排序模型之FM

clicked是分类值,表明用户有没有点击该广告。1表示点击,0表示未点击。而country,day,ad_type则是对应的特征。对于这种categorical特征,一般都是进行one-hot编码处理。

将上面的数据进行one-hot编码以后,就变成了下面这样 :

推荐系统排序模型之FM

因为是categorical特征,所以经过one-hot编码以后,不可避免的样本的数据就变得很稀疏。举个非常简单的例子,假设淘宝或者京东上的item为100万,如果对item这个维度进行one-hot编码,光这一个维度数据的稀疏度就是百万分之一。由此可见,数据的稀疏性,是我们在实际应用场景中面临的一个非常常见的挑战与问题。

one-hot编码带来的另一个问题是特征空间变大。同样以上面淘宝上的item为例,将item进行one-hot编码以后,样本空间有一个categorical变为了百万维的数值特征,特征空间一下子暴增一百万。所以大厂动不动上亿维度,就是这么来的。

3、对特征进行组合

普通的线性模型,我们都是将各个特征独立考虑的,并没有考虑到特征与特征之间的相互关系。但实际上,大量的特征之间是有关联的。最简单的以电商为例,一般女性用户看化妆品服装之类的广告比较多,而男性更青睐各种球类装备。那很明显,女性这个特征与化妆品类服装类商品有很大的关联性,男性这个特征与球类装备的关联性更为密切。如果我们能将这些有关联的特征找出来,显然是很有意义的。

一般的线性模型为:

y = w o + ∑ i = 1 n w i x i y = w_o + \sum_{i=1}^n w_ix_i y=wo​+i=1∑n​wi​xi​

从上面的式子很容易看出,一般的线性模型压根没有考虑特征间的关联。为了表述特征间的相关性,我们采用多项式模型。在多项式模型中,特征xi与xj的组合用 x i x j x_ix_j xi​xj​表示。为了简单起见,我们讨论二阶多项式模型。具体的模型表达式如下:

y ( x ) : = w o + ∑ i = 1 n w i x i + ∑ i = 1 N ∑ j = i + 1 N w i j x i x j y(x) := w_o + \sum_{i=1}^n w_ix_i + \sum_{i=1}^N \sum_{j=i+1}^Nw_{ij}x_ix_j y(x):=wo​+i=1∑n​wi​xi​+i=1∑N​j=i+1∑N​wij​xi​xj​

上式中,n表示样本的特征数量, x i x_i xi​表示第i个特征。

与线性模型相比,FM的模型就多了后面特征组合的部分。

从上面的式子可以很容易看出,组合部分的特征相关参数共有 n ( n − 1 ) 2 \frac {n(n-1)} 2 2n(n−1)​个。但是如第二部分所分析,在数据很稀疏的情况下,满足xi,xj都不为0的情况非常少,这样将导致 w i j w_{ij} wij​无法通过训练得出。

因此,提出了隐向量的概念。 该模型具有更强的模型表达能力和泛化能力。

为了求出 w i j w_{ij} wij​,我们对每一个特征分量 x i x_i xi​引入辅助向量 V i = [ v i 1 , v i 2 , ⋯   , v i k ] V_i = [v_{i1}, v_{i2}, \cdots, v_{ik}] Vi​=[vi1​,vi2​,⋯,vik​], 其中 k k k是个超参数,表示的是隐向量的长度。公式变为:

y ( x ) : = w o + ∑ i = 1 n w i x i + ∑ i = 1 N ∑ j = i + 1 N < v i , v j > x i x j y(x) := w_o + \sum_{i=1}^n w_ix_i + \sum_{i=1}^N \sum_{j=i+1}^N<v_i, v_j>x_ix_j y(x):=wo​+i=1∑n​wi​xi​+i=1∑N​j=i+1∑N​<vi​,vj​>xi​xj​

模型参数包括:

w o ∈ R , W ∈ R n , V ∈ R n × k w_o \in R, W \in R^n, V \in R^{n\times k} wo​∈R,W∈Rn,V∈Rn×k

< ⋅ , ⋅ > <\cdot,\cdot> <⋅,⋅>是两个size为k的向量的点积。

< v i , v j > : = ∑ f = 1 K v i f ⋅ v j f <v_i, v_j> := \sum_{f=1}^K v_{if} \cdot v_{jf} <vi​,vj​>:=∑f=1K​vif​⋅vjf​

上式的计算复杂度为 O ( k n 2 ) O(kn^2) O(kn2),通过公式推导,可以简化到 O ( k n ) O(kn) O(kn)的复杂度。公式推导如下:

∑ i = 1 N ∑ j = i + 1 N < v i , v j > x i x j = 1 2 ( ∑ i = 1 N ∑ j = 1 N < v i , v j > x i x j − ∑ i = 1 N < v i , v i > x i x i ) = 1 2 ( ∑ i = 1 N ∑ j = 1 N ∑ f = 1 K v i f v j f x i x j − ∑ i = 1 N ∑ f = 1 K v i f v i f x i x j ) = 1 2 ∑ f = 1 K ( ∑ i = 1 N ∑ j = 1 N v i f v j f x i x j − ∑ i = 1 N v i f v i f x i x j ) = 1 2 ∑ f = 1 K ( ∑ i = 1 N v i f x i ) 2 − ∑ i = 1 N v i f 2 x i 2 ) \begin{aligned} \sum_{i=1}^N \sum_{j=i+1}^N<v_i, v_j>x_ix_j &= \frac 1 2 (\sum_{i=1}^N \sum_{j=1}^N<v_i, v_j>x_ix_j - \sum_{i=1}^N<v_i, v_i>x_ix_i)\\ &= \frac 1 2 (\sum_{i=1}^N \sum_{j=1}^N \sum_{f=1}^K v_{if} v_{jf} x_i x_j - \sum_{i=1}^N \sum_{f=1}^K v_{if} v_{if} x_i x_j)\\ &= \frac 1 2 \sum_{f=1}^K (\sum_{i=1}^N \sum_{j=1}^N v_{if} v_{jf} x_i x_j - \sum_{i=1}^N v_{if} v_{if} x_i x_j)\\ &= \frac 1 2 \sum_{f=1}^K (\sum_{i=1}^N v_{if}x_i)^2 - \sum_{i=1}^N v_{if}^2 x_i^2) \end{aligned} i=1∑N​j=i+1∑N​<vi​,vj​>xi​xj​​=21​(i=1∑N​j=1∑N​<vi​,vj​>xi​xj​−i=1∑N​<vi​,vi​>xi​xi​)=21​(i=1∑N​j=1∑N​f=1∑K​vif​vjf​xi​xj​−i=1∑N​f=1∑K​vif​vif​xi​xj​)=21​f=1∑K​(i=1∑N​j=1∑N​vif​vjf​xi​xj​−i=1∑N​vif​vif​xi​xj​)=21​f=1∑K​(i=1∑N​vif​xi​)2−i=1∑N​vif2​xi2​)​

计算复杂度降到了 O ( k n ) O(kn) O(kn)。

采用随机梯度法求导可得:

∂ ∂ θ y ^ ( x ) = { 1 , i f    θ    i s    w o x i , i f    θ    i s    w i x i ∑ j = 1 N v j f x j − v i f x i 2 , i f    θ    i s    v i f \frac {\partial} {\partial \theta} {\hat y(x)} = \left\{ \begin{aligned} 1, && if \; \theta \; is \; w_o \\ x_i, && if \; \theta \; is \; w_i \\ x_i \sum_{j=1}^N v_{jf}x_j - v_{if}x_i^2, && if \; \theta \; is \; v_{if} \end{aligned} \right. ∂θ∂​y^​(x)=⎩⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎧​1,xi​,xi​j=1∑N​vjf​xj​−vif​xi2​,​​ifθiswo​ifθiswi​ifθisvif​​

当然,对于推荐系统ctr预估问题来说,由于属于二分类问题,需要将输出值 y ( x ) y(x) y(x)作用于Sigmoid激活函数。

参考文章:

  1. https://www.jianshu.com/p/152ae633fb00

继续阅读