机器学习之逻辑回归

一句话:逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法,运用梯度下降求解参数,来达到将数据二分类的目的

假设函数

逻辑回归算法是将线性函数的结果映射到 sigmoid 函数中:

[h_{ heta}{(x)}=frac{1}{1+e^{-z}}=frac{1}{1+e^{ heta^{T}x}} ]

函数的形式如下:

uploading-image-440521.png

因此对于输入 x 分类结果为类别 1 和类别 0 的概率分别为:

[egin{align} P(y=1|x; heta)&=h_{ heta}{(x)}\ P(y=0|x; heta)&=1-h_{ heta}(x) end{align} ]

极大似然估计

利用极大似然估计的方法求解损失函数,首先得到概率函数为:

[P(y|x; heta)=(h_{ heta}(x))^y*(1-h_{ heta}{(x)})^{1-y} ]

因为样本数据互相独立,所以它们的联合分布可以表示为各边际分布的乘积,取似然函数为:

[egin{align} L( heta)&=prod_{i=1}^{m}{P(y^{(i)}|x^{(i)}; heta)}\ &=prod_{i=1}^{m}{(h_{ heta}(x^{(i)}))^{y^{(i)}}*(1-h_{ heta}(x^{(i)}))^{1-y^{(i)}})} end{align} ]

取对数似然函数:

[l( heta)=log(L( heta))=sum_{i=1}^{m}{(y^{(i)}log{(h_{ heta}(x^{(i)}))}+(1-y^{(i)})log({1-h_{ heta}{(x^{(i)})}}))} ]

最大似然估计就是要求得使 (l( heta)) 取最大值时的 ( heta) ,为了应用梯度下降法。我们稍微变换一下:

[J( heta)=-frac{1}{m}l( heta) ]

为什么使用极大似然函数来作为损失函数?

  • 对损失函数求负梯度之后,参数的更新只与 (x_j^i)(y^i) 相关,和 sigmoid 函数本身的梯度是无关的;
  • 从损失函数的函数图形来分析:

对于单个样本来讲,(J( heta)) 所对应的 (C( heta)) 为:

[C( heta)=-[ylog{h_{ heta}(x)}+(1-y)log{(1-h_{ heta}(x))}] ]

(y=1) 时:(C( heta)=-log{h_{ heta}(x)})

其函数图像为:

uploading-image-476071.png

从图中可以看出,对于正类 (y=1),当预测值 (h_{ heta}(x)=1) 时,损失函数 (C( heta)) 的值为 0,这正是我们希望得到的。反之,则会给学习算法较大的惩罚。

(y=0) 时:(C( heta)=-log{(1-h_{ heta}(x))})

其函数图像为:

uploading-image-224135.png

分析同上。


存在的缺点

  • 准确率不是很高,因为形式比较简单,很难去拟合数据的真实分布;
  • 很难处理数据不平衡的问题,比如正负样本比为 10000:1 时,把所有的样本都预测为正,也能使损失函数的值比较小;
  • 处理非线性数据较麻烦
  • 逻辑回归本身无法筛选特征。有时候用 GBDT 来筛选特征,然后再用逻辑回归。
原文地址:https://www.cnblogs.com/ydcode/p/11195964.html