逻辑回归原理

来自:刘建平

逻辑回归是分类算法,可以处理二元分类和多元分类。

名字里有“回归”二字,但不是回归算法。为什么名字有“回归”这个误导词?因为它的原理有回归模型的影子。

1. 从线性回归到逻辑回归

线性回归模型是求Y和X之间的线性关系系数Θ,满足Y= XΘ。此时Y是连续的,所以是回归模型。

想要Y是离散的话,对Y再做一次函数转换,变为g(Y)。如果g(Y)结果类别是两种,就是二元分类模型。

2. 二元逻辑回归的模型

对线性回归的结果做函数g的转换,变为逻辑回归。g一般取sigmoid函数:

取sigmoid函数,主要因为两个性质:

  • 当z趋于正无穷时,g(z)趋于1,当z趋于负无穷,g(z)趋于0。
  • (导数性质)

令g(z)中的z为:z = ,得到二元逻辑回归模型一般形式:

       其中x为样本输入,hΘ(x)为模型输出,可以是某一分类的概率大小。hΘ(x)和二元分类样本y(假设为0和1)有这样对应关系,如果hΘ(x)>0.5,即xΘ>0,则y为1。如果hΘ(x)<0.5,即xΘ<0,则y为0。y = 0.5是临界情况,此时xΘ=0,无法确定分类。

       hΘ(x)值越小,分类为0的概率越高;值越大,分类为1的概率越高。靠近临界点,分类准确率会下降。

模型的矩阵模式

其中hΘ(X)为模型输出,m*1维度。X为样本特征矩阵,为m*n维度。Θ为模型系数,为n*1的向量。

3. 二元逻辑回归的损失函数

线性回归是连续的,使用模型误差的平方和来定义损失函数。逻辑回归使用最大似然法定义损失函数。

样本输出是0或1两类,得到:

把两个式子写成一个式子:

其中y的取值是0或者1。

得到y的概率分布函数,就可以用似然函数最大化求解模型系数Θ。为了方便求解,这里我们用对数似然函数最大化,对数似然函数取反即为损失函数J(θ)其中,似然函数的代数表达式为:

损失函数表达式:

矩阵形式:

  • 为内积。

4. 二元逻辑回归的损失函数的优化方法

损失函数最小化, 最常见的有梯度下降法、坐标轴下降法、等牛顿法。

下面是推到梯度下降法中θ步骤:

5. 二元逻辑回归的正则化

逻辑回归也有过拟合问题,需要正则化,常见的L1正则化和L2正则化。

L1正则化:

超参数α是惩罚系数,||θ||1为θ的L1范数。

L1正则化损失函数的优化方法常用坐标轴下降法和最小角回归法。

L2正则化:

||θ||2为θ的L2范数。

L2正则化损失函数的优化方法和普通的逻辑回归类似(梯度下降法)。

6.小结

        逻辑回归尤其是二元逻辑回归,训练速度很快,虽然使用起来没有支持向量机(SVM)占主流,但是解决普通的分类问题是足够了,训练速度比SVM快不少。

  

hθ(x)

来自:刘建平

原文地址:https://www.cnblogs.com/keye/p/10506641.html