面试准备

转自:https://blog.csdn.net/gavin__zhou/article/details/71075217

  • 什么是boosting tree
  • GBDT
  • L1和L2正则为何可以减弱over-fitting?
  • L1和L2正则有什么区别
  • KNN和LR有什么本质区别
  • 怎么理解Dropout
  • 为什么random forest具有特征选择的功能
  • random forest有哪些重要的参数?
  • DNN为什么功能强大,说说你的理解
  • SVM的损失函数是什么?怎么理解
  • 介绍下Maxout
  • 项目中over-fitting了,你怎么办
  • 详细说一个你知道的优化算法(Adam等)
  • 项目(比赛)怎么做的模型的ensemble
  • stacking是什么?需要注意哪些问题
  • 了解哪些online learning的算法
  • 如何解决样本不均衡的问题
  • fasterRCNN中的ROIPooling是如何实现的
  • 如何进行特征的选择
  • 如何进行模型的选择
  • 什么是梯度消失?怎么解决
  • 常用的有哪些损失函数
  • XX用户画像挖掘怎么做的feature engineering?
  • 假设一个5*5的filter与图像卷积,如何降低计算量?
  • 做过模型压缩吗?介绍下
  • 什么是residual learning?说说你的理解
  • residual learning所说的residual和GBDT中的residual有什么区别?
  • FFM和FTRL有过了解吗?
  • 你对现在Deep Learning的发展和遇到的问题有什么看法?
  • EM算法、决策树、随机森林等、包括SVM,逻辑回归、EM、K-means
  • 各种基础、网络基础TCP三次握手、Linux线程通信、进程线程的区别、深拷贝浅拷贝、数据库transaction、悲观锁乐观锁等等
  • 决策树,怎么计算信息熵、信息增益、然后C4.5 ID3 CART的区别
  • 还说了一下优缺点、让我10分钟写二叉树插入方法(非递归)
原文地址:https://www.cnblogs.com/baiting/p/8673887.html