简历项目的梳理和面试准备

简历的目的是拿到面试机会,所以要

1、简历项目

一、投资人用户画像,给新的项目推荐投资机构,文本的处理,文本相似问题,用tfidf和浅语义模型解决,文本检索技术,可以归类为文本检索的问题

  文本预处理:中文分词,然后去除停用词、删除低频词、进行word ->id转换

  可选的优化:比如用TF-IDF为词汇加上局部权重,构建TF_IDF向量

  将训练文本用Dictionary转换成id表现的形式,这就得到了Term-Document矩阵A

  

  降维,将奇异值S减少为k个(topic值),当然k是个经验数字,比如200-500,然后U选前k列,V选前k列;S选左上角k行k列对角方阵,其实V的

  

  新的查询文本q,其查询向量为q上公式;两个向量的相似度计算常常使用consine余弦相似度

gensim库的实现:

LSI模块

Similarities模块

二、发现创投新概念,文本分类,打标签问题,文本分类有传统的 tfidf + lr 或者svm;深度学习中词嵌入+lstm,词嵌入的是通过公司内部收集关于证券的数据,

三、搜狗大数据用户画像:特征:搜索文本,label:年龄、性别、学历

  三个子任务、任务查询词、

用户画像:

研究准备与数据收集  -> 亲和图  ->  人物原型框架  -> 优先级排序 -> 完善人物原型 ->

用户画像构建流程:

  基础数据收集  ->  行为建模  -> 构建画像

  网络行为数据                文本挖掘             基本属性

   服务内行为数据    自然语言处理         购买能力

  用户内容偏好数据    机器学习             行为特征

  用户交易数据                预测算法    兴趣爱好

              聚类算法    心理特征

                      社交网络

1、数据预处理

  停用词:教育高:空格留下,教育低,用之的概率大,

  分词处理:jieba分词

2、特征表示:

  (1)Bag of words 词袋:至少5篇文档中的词汇来组成词表,统计one-gram及bi-gram特征,该特征可以有效体现出不同类别用户的用词习惯,

  (2)词嵌入:使用google的word2vec工具在搜狗新闻语聊上训练得到了常用词的词向量,应用到用户的历史查询词中,该方法得到的词向量可以有效计算出两个词之间的相似度,从而表示出不同用户查询历史的差异

   word2vec词向量可以较好地表达不同词之间的相似和类比关系

  (3)主题词嵌入:

  该任务中,每个用户具有多组查询词,其中有些查询相关性较强,有些则完全不相关,使用主题模型来抽取用户的多个查询主题,更有利于刻画用户的查询习惯,基于LDA的结果,使用topical word 

  embedding模型训练得到每个查询词的词向量。TWE模型与常见的word2vec不同在于,其计算出的词向量同时考虑词的上下文及该词的所在主题的信息。使用tfidf特征值对用户查询历史中的词向量进行加权平均,可以得到表示整体查询的向量值,可以将其直接作为多个分类模型的输入,完成用户层级的分类任务

   (4)  doc2vec特征表示:
  为了将文档直接表示成一个固定长度的向量,采用Doc2vec方法,它通过直接构造文档向量,并将该向量加入到该文档中词向量的训练过程,进行共同训练,从而得到能直接体现该文档语义特征的向量

  根据训练文档向量的网络结构不同,可分为DM分布式内存模型和dbow 分布式词袋 DM是更具上下文和文档id预测中心词,dbow是以文档id去预测文档中的词

  (5) 人工构建的特征:

  查询词的个数、查询词的平均长度、查询词的最大长度、有空格的query占总查询的比例、

3、模型结构

  基于TFIDF的传统机器学习模型

  第一层模型:尝试了sklearn中的LR、KNN、SVC、RF和xgboost中的gliear和gbtree。其中,由于tfidf特征过于稀疏、维度过高、树形模型表现结果很差,由于数据量太大,KNN和SVC算法都不能训练出结果

  gliear线下测试要高于逻辑回归,但是线下成绩不如逻辑回归

  

  基于分布式向量的神经网络模型

  第二层融合模型(stacking):

  融合的优点:

  

  

  三个子任务上训练,模型输出的概率值作为下一层模型的输入,由于三个子任务分别是6分类、6分类、2分类,所以第一层特征维度是6+6+2=

  xgboost 参数调节

  (2)调节

4、数据后处理---错误分析

  补充缺失值,含有缺失值的样本剔除

5、总结和展望

  深度学习方法

四、深度学习:

LSTM在

五、反欺诈建模中的数据科学

  数据获取与清洗    ->    特征获取   ->    高级特征获取  ->  建模  -> 风控决策

  企业的金融数据        统计学习                GBDT 梯度提升树       消费能力评级

  消费数据           数据分析                 SVM 支撑向量机        用户风险评级

  信用数据           社交网络分析           RF  随机森林             社交关联评级

  行为数据                                       用户属性评级

  社交数据

  其他

六、分词、标注、命名实体识别 

  结巴分词的原理

原文地址:https://www.cnblogs.com/lxw003/p/8658647.html