公式

1.

[g(z)= egin{cases} 0,z<0;\ 0.5,z=0;\ 1,z>0;\ end{cases} ]

2

[左图黑线的函数形式:y=frac{1}{1+e^{-z}} ]

[把z=w^Tx+b带入上式得:y=frac{1}{1+e^{-(w^Tx+b)}} ]

3

[P(y=1|x)=frac{e^{ heta x}}{1+e^{ heta x}} ]

[P(y=0|x)=frac{1}{1+e^{ heta x}} ]

[P(y_i|x_i; heta)=P(y_i=1|x)^{y_i} P(y_i=0|x_i)^{1-y_i} ]

4

[最大似然估计:l( heta)=sum_{i=1}^m lnP(y_i|x_i; heta)=sum_{i=1}^m(y_i( heta^Tx_i)-ln(1+e^{ heta^T x})) ]

[frac{partial l( heta)}{partial heta}=sum_{i=1}^my_i x_i-sum_{i=1}^mfrac{x_i e^{ heta^T x_i}}{1+e^{ heta ^Tx_i}}=sum_{i=1}^m(y_i-sigmoid( heta^T x))x_i ]

5

[ heta^{t+1}= heta^t-frac{partial l( heta)}{partial heta}= heta^t-alphasum_{i=1}^n(y_i-sigmoid( heta^Tx_i))x_i ]

6

[随机变量X的概率分布为:P(X=x_i)=p_i,i=1,2,...,n ]

[随机变量X的熵为:H(p)=-sum_{i=1}^np_ilog p_i ]

[g_R(D,A)=frac{g(D,A)}{H_A(D)} H_A(D)=-sum_{i=1}^nfrac{|D_i|}{|D|}log_2frac{|D_i|}{D},n是特征A取值的个数 ]

[C_alpha(T)=C(T)+alpha|T| ]

7.

[假设输入空间被划分成M个单元R_1,R_2,...,R_M,并在每个单元R_m上有一固定值c_m。我们使用平方误差sum_{x_iin R_m}(y_i-f(x_i))^2来表示回归树对于训练数据的预测误差,可得c_m=average(y_i|x_iin R_m) ]

[选择第j个变量x^{(j)}和他的值s作为切分点把x分成两个区域:R_1(j,s)={x|x^{(j)}<=s}和R_2,然后求解最优切分变量j和最优切分点s,具体地,求解下式: ]

[min_{j,s}(min_{c_1} sum_{x_iin R_1(j,s)}(y_i-c_1)^2+min_{c_2} sum_{x_iin R_2(j,s)}(y_i-c_2)^2) ]

8

[给定样本D,其基尼指数为:Gini(D)=1-sum_{k=1}^K(frac{|C_k|}{|D|})^2,C_k是D中属于第k类的样本子集,K是样本的类别 ]

[在特征A的条件下,集合D的基尼指数定义为:Gini(D,A)=frac{D_1}{D}Gini(D_1)+frac{D_2}{D}Gini(D_2) ]

9

  1. 初始化(f_0(x)=0)
  2. 对m=1,2,...,M
    计算残差:(r_{mi}=y_i-f_{m-1}(x_i) i=1,2,...,N)
    拟合残差(r_{mi})学习一个回归树,得到T(x:m)
    更新(f_m(x)=f_{m-1}(x)+T(x:m))
  3. 得到回归问题提升树 (f_M(x)=sum_{m=1}^MT(x:m))
原文地址:https://www.cnblogs.com/whig/p/9455894.html