FM解析(因子分解机,2010)

推荐参考:(知乎)

https://zhuanlan.zhihu.com/p/37963267

要点理解:

1.fm应用场景,为什么提出了fm(和lr的不同点)

ctr预测,特征组合,fm的隐向量分解,lr的二次项

2.fm的两个好处

第一,为什么在数据稀疏情况下有效?

(1)首先来说数据稀疏,是因为0-1编码后通常出现的情况,如果用lr的话,Wij 和 Wih 是独立的,比如<男,篮球>代表Wij,课用于训练的样本可能只有100个,但如果用隐向量V,注意

内积<vi,vj> 和 <vi,vh>不是完全独立的,能用于训练vi的数据,也就是<男,XXX>的数据都可以,远远大于100个,训练会更加有效

(2)fm中隐向量可以表示之前没有出现过的交叉特征。因为lr中<男,化妆品>如果在原始数据中为0,则wij系数就是为0,但是用fm,可能会计算出不一样的结果

第二,线性时间复杂度

原始wij有n*(n-1)/2个,但是使用矩阵v,k行n列,参数量变为k*n

下一篇:deepfm in pytorch(csdn博客)

https://blog.csdn.net/w55100/article/details/90295932

原文地址:https://www.cnblogs.com/qiezi-online/p/14084812.html