Machine Learning --- Logistic Regression

一、两类Logistic回归(输出值[0,1],预测的同时给出分类的概率,用于二分类)

目标y∈{0,1}服从Bernolli分布:

image

-log似然为:

image,其中image

(1)求解方法

一阶梯度下降公式:

image

法1:随机梯度下降:

image

若u(x),y∈{-1,1},则是著名的Perceptron感知机算法,a为学习率:

image

法2:二阶梯度下降(牛顿法/切线法)

一阶梯度:将导数gw在wt处二阶泰勒展开(其中H称为海塞矩阵):

image得:image

因此迭代机制为:

image

法3:IRLS(迭代加权最小二乘)

imageimage

目标是最小化:

image,其中imageimage

(2)加罚项(L2正则)

image

(3)贝叶斯Logistic回归(Laplace/高斯近似:当样本足够多时后验接近高斯分布)

先验:

image

似然:

image

后验p(w|D)用Laplace/高斯近似:

image

imageimageimage

二、多类Logistic回归(Softmax,解决方法同两类Logistic回归,用Softmax代替Sigmoid函数)

目标y∈{0,1,2,..}服从multiBernoulli分布:

image

Softmax函数:

image

原文地址:https://www.cnblogs.com/jizhiyuan/p/3421967.html