机器学习-决策树和随机森林

随机森林

用法:

  1. 样本的相似度,认为在一个叶子节点的两个样本是相似的,来计算样本相似度矩阵。

  2. 特征选择:修改节点的特征选择,看预测的结果有没有显著变化,有的话,说明被替换的特征比较重要,反之,不重要。

  3. Isolation Forest: 随机选择特征,随机选择分割点生成一定深度的决策树,由这样的决策树生成的随机森林。对于异常的样本,他应该在这一系列的决策树中很快到达叶子节点。到达叶子节点的和比较小的时候,就认为是异常数据。

原文地址:https://www.cnblogs.com/parkin/p/7594707.html