线性回归和逻辑回归的关系

线性回归和逻辑回归的关系

一、总结

一句话总结:

【需求是让f(x)来拟合[0,1]】,这个时候应该怎么做呢。拟合[0,1]就是【二分类】的问题。
【阶跃函数不连续,不可导】,所以就【用sigmoid】,所以就是逻辑回归了
逻辑回归:$$y = frac { 1 } { 1 + e ^ { - ( w ^ { T } x + b ) } }$$

二、线性回归和逻辑回归的关系

博客对应课程的视频位置:

1、线性回归

一般形式:$$f ( x ) = w _ { 1 } x _ { 1 } + w _ { 2 } x _ { 2 } + ldots + w _ { d } x _ { d } + b$$
向量形式:$$f ( x ) = w ^ { T } x + b,其中w为w = ( w _ { 1 } ; w _ { 2 } ; ldots ; w _ { d } )$$

2、拟合[0,1]

这样的f(x)是用来拟合整个实数级的,而如果我的需求是让f(x)来拟合[0,1],这个时候应该怎么做呢。拟合[0,1]就是二分类的问题。
于是,我们需【将实值f(x)转换为0/1值】.最理想的是【“单位阶跃函数”(unit-step function)】:$$y = left{ egin{array} { c l } { 0 , } & { z < 0 } \ { 0.5 , } & { z = 0 } \ { 1 , } & { z > 0 } end{array} ight.$$


3、线性回归和逻辑回归的关系

但是,阶跃函数不连续,不可导,所以就用sigmoid,所以就是逻辑回归了
逻辑回归:$$y = frac { 1 } { 1 + e ^ { - ( w ^ { T } x + b ) } }$$
 
我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
博主25岁,前端后端算法大数据人工智能都有兴趣。
大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
聊技术,交朋友,修心境,qq404006308,微信fan404006308
26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
人工智能群:939687837

作者相关推荐

原文地址:https://www.cnblogs.com/Renyi-Fan/p/14055292.html