(ML邹博)回归

目录

  • 线性回归
    • 高斯分布
    • 最大似然估计
    • 最小二乘法的本质
  • Logistic回归
  • 工具
    • 梯度下降算法
    • 最大似然估计

线性回归

对于单个变量:

y=ax+b

截屏2020-03-04下午6.45.22

对于多个变量:

截屏2020-03-04下午6.46.34 截屏2020-03-04下午6.46.52

使用极大似然估计解释最小二乘法

(y^{(i)}= heta^{T}x^{(i)}+varepsilon^{(i)})

误差(varepsilon^{(i)}(1le ile m))是独立同分布的,服从均值为0,方差为某定值(sigma^{2})高斯分布

原因:中心极限定理

中心极限定理的意义

在实际问题中,很多随机现象可以看做众多因素独立影响的综合反应,往往近似服从正态分布。

截屏2020-03-04下午6.54.09
  • 应用前提是多个随机变量的和,有些问题是乘性误差,则需要鉴别或者取对数后使用。

似然函数

(y^{(i)}= heta^{T}x^{(i)}+varepsilon^{(i)})

截屏2020-03-04下午6.58.04

高斯的对数似然与最小二乘

截屏2020-03-04下午7.06.15

( heta)的解析式求解过程

将M个N维样本组成矩阵X:

  • x的每一行对应一个样本,共M个样本(measurements)
  • X的每一列对应样本的一个维度,共N维(regressors)
    • 还有额外的一维常数项,全为1

目标函数

截屏2020-03-04下午7.13.21

梯度

截屏2020-03-04下午7.13.41

最小二乘意义下的系数最优解

参数的解析式:

截屏2020-03-04下午7.18.53 截屏2020-03-04下午7.19.26

加入(lambda)扰动后:

(X^TX)半正定:对于任意非零向量u

截屏2020-03-04下午7.20.33

所以,对于任意实数(lambda>0)(X^TX+lambda I)正定,从而可逆,保证回归公式有意义。截屏2020-03-04下午7.21.37

线性回归的复杂度惩罚因子

线性回归的目标函数为:

截屏2020-03-04下午7.22.17

将目标函数增加平方和损失;

截屏2020-03-04下午7.23.03

本质即为假定参数( heta)服从高斯分布。

原文地址:https://www.cnblogs.com/pteromyini/p/12512001.html