关于FM算法,已经有很多文章将原理讲的很清楚了,这里记录一下个人的想法以及实践中的处理方式,如有不对,还请指正。
1. FM算法原理
FM算法的输出由2部分组成,分别为线性层和二阶交互层,公式为:
而对于输入数据x,从原论文给出的图中,可以知道既然包含了数值特征,也包含了类别特征。对于类别特征处理方式为
One-Hot
编码。
2. 实践中的问题
2.1 线性层中的离散特征
前面提到了
FM
一部分输出为线性层,但我们知道对于离散特征进行独热编码后,是很稀疏的。如果就这样直接与数值特征拼接后送入线性层,这会造成很多参数训练不充分。
阅读DeepCTR的代码,其中对类别特征如何送入线性层有如下的处理方式:
- 对类别特征进行
编码,不过送入线性层的离散特征编码后维度为Embedding
;dim=1
- 将编码后的类别特征,再与数值特征进行拼接,送入线性层;
至于数值特征,可以做一个归一化操作,比如
MinMaxScaler(),StandardScaler()
;对于长尾数据,还可以取对数
log()
。
2.2 交互层中的数值特征
按照原文的意思,无论是数值特征还是类别特征都需要进行两两交互;但实践中,一般只对类别特征做特征交互处理。
其实,这里的每个特征 x i x_i xi对应的隐向量 v i v_i vi,其实与
Embedding
意思是一样的。
对于数值特征,不同的数值可能各不相同,并不适合做
Embedding
。如果要做,也应该先对数值特征进行分桶,转换为离散特征,在做
Embedding
.
2.3 复杂度
论文中,将二阶交互项进行了改写,降低了复杂度。
起初,我并不认为这样做在编程方便带来了多大的方便。
因为,可以利用语法,每次取出两个不一样的特征,然后进行交互,最后将它们相加即可。其实,这样做,计算复杂度到了 O ( k n 2 ) O(kn^2) O(kn2)。
化简后,n的求和符号其复杂度都为 O ( n ) O(n) O(n),而关于k的求和本质是加法;所以最终复杂度降为 O ( k n ) O(kn) O(kn);