机器学习笔记(11)-异常检测-孤立森林

机器学习笔记(11)-异常检测-孤立森林

孤立森林(Isolation Forest,iForest)是一种异常检测算法,是西瓜书作者周志华老师的团队研究开发的算法,一般用于结构化数据的异常检测,是一种树模型。思想和决策树、随机森林都极其相似。

iForest对于样本的假设有两点,当样本不符合下面两点时,不建议使用:

  1. 异常点很少,占样本中的比例很低
  2. 异常点与正常数据点的差异较大,并且彼此间的分布较为稀疏

根据上述第二点假设,说明该算法模型并不适用于异常点聚集为一小簇的情况。如下图:

该算法同样不考虑时序特征,样本间互相独立。

下面来介绍下该算法的原理和思想:

和随机森林中每颗决策树根据样本属性维度切割类似,iForest也有若干棵iTree(孤立树)组成,每棵iTree由数据样本的维度进行划分,最后将每个样本划分到iTree的左右叶子节点中,所以iTree是一棵二叉树。

iForest算法可以分为两个步骤:

  1. 建立iTree:根据样本建立若干棵iTree
  2. 打分:利用建立的iTree对样本进行打分

数据样本:假设有(N)个数据样本点,每个样本的维度是(p)维。

建立iTree

  1. 设定树的高度(h)和树的个数(t)棵;
  2. 从所有(N)个样本数据中随机选取(m)个数据样本,用于建立一棵iTree;
  3. 随机从(p)维中选取1个维度,该维度的值(q)为随机选择位于(m)个样本在该维度下的值,用于分割(m)个样本点;
  4. 分割(m)个样本,大于分割值(q)的作为左子树,小于的作为右子树;
  5. 反复执行3~4两步,直到到达树的限制高度(h)或将样本全部划分到叶子节点中。

打分

由于划分维度和维度的值都是随机的,所以我们需要反复建立iTree,结果取均值来确保结果稳定。

建立完成(t)棵树后,采用打分函数:

[score(x)=2^{-frac{E[h(x)]}{frac{1}{t}sum_{i=1}^{t}h_{i}}} ]

其中(E[h(x)])表示样本x在所有构建的iTree中的高度的期望值,(frac{1}{t}sum_{i=1}^{t}h_{i})表示每棵iTree的最大高度的均值。

根据上面的打分函数可以很明显看出,越正常的样本在iTree中的深度越大,对应的(h(x))就越接近iTree的高度,score就越接近0.5,而异常点的score越接近1。

总结一下:

  1. 使用iForest时需要反复构建iForest,使随机性降低,结果收敛。
  2. 迭代次数越多,iTree构建越多,结果越稳定、准确。
原文地址:https://www.cnblogs.com/Epir/p/13191480.html