智能推荐算法演变及学习笔记(三):CTR预估模型综述

【说在前面】本人博客新手一枚,象牙塔的老白,职业场的小白。以下内容仅为个人见解,欢迎批评指正,不喜勿喷![握手][握手]

【再啰嗦一下】如果你对智能推荐感兴趣,欢迎先浏览我的另一篇随笔:智能推荐算法演变及学习笔记

【最后再说一下】本文只对智能推荐算法中的CTR预估模型演变进行具体介绍!

一、传统CTR预估模型演变

1. LR

即逻辑回归。LR模型先求得各特征的加权和,再添加sigmoid函数。

  • 使用各特征的加权和,是为了考虑不同特征的重要程度
  • 使用sigmoid函数,是为了将值映射到 [0, 1] 区间

LR模型的优点在于:

  • 易于并行化、模型简单、训练开销小
  • 可解释性强、可拓展性强

LR模型的缺点在于:

  • 只使用单一特征,无法利用高维信息,表达能力有限
  • 特征工程需要耗费大量的精力

2. POLY2

POLY2对所有特征进行“暴力”组合(即两两交叉),并对所有的特征组合赋予了权重。

一定程度上解决了LR缺乏特征组合的问题,但是“暴力行为”带来了一些问题:

  • 特征维度爆炸,特征数据过于稀疏,特征权重不易收敛

3. FM

相比于POLY2,FM为每个特征学习了一个隐权重向量 w。在特征交叉时,使用两个特征隐向量w的内积作为交叉特征的权重。

将原先n^2级别的权重数量降低到n*k(k为隐向量w的维度,n>>k),极大降低了训练开销。

4. FFM

在FM模型基础上,FFM模型引入了Field-aware。在特征交叉时,使用特征在对方特征域上的隐向量内积作为交叉特征的权重。

FFM模型的权重数量共n*k*f个,计算复杂度上升到k*n^2,远远大于FM模型的k*n。

5. GBDT/xgboost/lightgbm

直接使用机器学习算法中的集成学习方法。

6. GBDT+LR/FM/FFM

利用GBDT自动进行特征筛选和组合,进而生成新的离散特征向量,再把该特征向量当作LR模型的输入。

7. MLR

在LR的基础上采用分而治之的思路,先对样本进行分片,再在样本分片中应用LR进行CTR预估。

 

以上1-7部分可以总结为传统的CTR预估模型演变,这里分享一下大佬的关系图谱:

二、引入深度学习的CTR预估模型演变

1. Deep Crossing

通过加入embedding层将稀疏特征转化为低维稠密特征,用stacking层连接分段的特征向量,再通过多层神经网络完成特征组合/转换。

跟经典DNN有所不同的是,Deep crossing采用的multilayer perceptron是由残差网络组成的。

2. FNN

相比于Deep Crossing,FNN使用FM的隐层向量作为user和item的Embedding,从而避免了完全从随机状态训练Embedding。

3. Wide & Deep

把单输入层的Wide部分和经过多层感知机的Deep部分连接起来,一起输入最终的输出层。

  • wide部分:高维特征+特征组合的LR
  • deep部分:deep learning

4. DeepFM

DeepFM对Wide & Deep的改进之处在于,用FM替换掉了原来的Wide部分,加强了浅层网络部分特征组合的能力。

5. Deep & Cross (DCN)

使用Cross网络替代了原来的Wide部分。Cross网络使用多层cross layer对输入向量进行特征交叉,增加特征之间的交互。

6. NFM

相对于DeepFM和DCN对于Wide&Deep Wide部分的改进,NFM可以看作是对Deep部分的改进。

NFM用一个带Bi-interaction Pooling层的DNN替换了FM的特征交叉部分。

 

7. Deep Interest Network (DIN)

在模型的embedding layer和concatenate layer之间加入了attention unit,使模型能够根据候选商品的不同,调整不同特征的权重。

以上1-7部分可以总结为引入深度学习的CTR预估模型演变,这里分享一下大佬的关系图谱:

三、深度学习推荐模型的上线问题

对于深度学习推荐模型的离线训练自然不是问题,一般可以采用比较成熟的离线并行训练环境。

对于深度学习推荐模型的上线问题,其线上时效性至关重要。

1. “特征实时性”

这里分享一下大佬画的智能推荐系统主流技术架构图,博主认知有限,就不展开介绍了。

2. “模型实时性”

与“特征实时性”相比,推荐系统模型的实时性往往是从更全局的角度考虑问题,博主认知有限,就不展开介绍了。

 

3. “服务实时性”:双塔模型

很多公司采用“复杂网络离线训练,生成embedding存入内存数据库,线上实现LR或浅层NN等轻量级模型拟合优化目标”的上线方式。

以百度的双塔模型举例说明:

(1)分别用复杂网络对“用户特征”和“广告特征”进行embedding,这就形成了两个独立的“塔”,因此称为双塔模型。

(2)在完成双塔模型的训练后,可以把最终的用户embedding和广告embedding存入内存数据库。

(3)线上推理时,只需要实现最后一层的逻辑,从内存数据库中取出用户/广告的embedding,通过简单计算即可得到预估结果。

最后感叹一句,深度学习CTR模型的发展实在是太迅速了,很多新模型就不继续介绍了,要保持学习啊!

 

【更新】介绍比较新的一些深度学习推荐模型改进方向:

  • 引入用户行为序列建模(例如TDM/TransRec等)
    • 将用户历史行为看做一个无序集合,对所有embedding取sum、max和各种attention等
    • 将用户历史行为看做一个时间序列,采用RNN/LSTN/GRU等建模
    • 抽取/聚类出用户的多峰兴趣,方法有Capsule等(阿里MIND提出)
    • 根据业务场景的特殊需求,采用其他方法
  • 引入NLP领域知识建模(例如Transformer/BERT等)
  • 多目标优化/多任务学习(例如阿里ESMM/Google MMoE等)
  • 多模态信息融合
  • 长期/短期兴趣分离(例如SDM等)
  • 结合深度强化学习(例如YouTube推荐/今日头条广告推荐DEAR等)
  • 图神经网络的预训练(即引入迁移学习的思路)
  • ......

本文参考了大佬的知乎专栏:https://zhuanlan.zhihu.com/p/51117616

如果你对智能推荐感兴趣,欢迎先浏览我的另一篇随笔:智能推荐算法演变及学习笔记

如果您对数据挖掘感兴趣,欢迎浏览我的另一篇博客:数据挖掘比赛/项目全流程介绍

如果您对人工智能算法感兴趣,欢迎浏览我的另一篇博客:人工智能新手入门学习路线和学习资源合集(含AI综述/python/机器学习/深度学习/tensorflow)

如果你是计算机专业的应届毕业生,欢迎浏览我的另外一篇博客:如果你是一个计算机领域的应届生,你如何准备求职面试?

如果你是计算机专业的本科生,欢迎浏览我的另外一篇博客:如果你是一个计算机领域的本科生,你可以选择学习什么?

如果你是计算机专业的研究生,欢迎浏览我的另外一篇博客:如果你是一个计算机领域的研究生,你可以选择学习什么?

如果你对金融科技感兴趣,欢迎浏览我的另一篇博客:如果你想了解金融科技,不妨先了解金融科技有哪些可能?

之后博主将持续分享各大算法的学习思路和学习笔记:hello world: 我的博客写作思路

原文地址:https://www.cnblogs.com/zhengzhicong/p/12862816.html