线性回归与多项式回归的区别,如何判断他们的使用场景

前言:    以下内容是个人学习之后的感悟,转载请注明出处~

总结:   回归属于监督学习的一种的方法, 从连续的数据中得到模型,然后将该数据模型进行预测或者分类.

线性回归模型

把数据通过画图画出来,如果是下面这样的,那么他就适合于线性回归 ,

 
 
这组数据不属于正态分布,
但用线性回归的话,就可以很好的进行拟合,如果用多项式回归的话,那么拟合度会很差.
画一个拟合曲线观察一下,还是比较拟合的
可以查看这两张图片,经过线性回归之后,第一张是没有处理的,第二张是处理后..观察发生了什么变化
 
 
多项式回归模型
根据数据的发展趋势来进行来决定,当太过于复杂时,那么多项式回归就不在适合于处理这组数据.
多项式回归模型一般都是处理正态分布的数据,
多项式回归的代码比线性回归的就多了一行
polynomial=PolynomialFeatures(degree=2) # 构建多项式回归器对象 # degree是多项式的次数,此处初步的设置为2
 
如果他是这种数据的话,那么多项式回归就适合处理这组数据
 
画一个拟合曲线,看一下他与这组数据的拟合程度
很显然,拟合程度很高
 可以观察这两张图片,经过多项式回归之后,第一张是没有处理的,第二张是处理后..观察发生了什么变化

 

 周五一个读者问我怎么在图中添加异常点 , 我在这篇中带着解释一下

# 以下加入两个异常点,再用线性回归器进行拟合 
abnormal_x=[16.5,17.9] 
abnormal_y=[25.98,24.12] 
print('x with abnormal point: {}'.format(x)) print('y with abnormal point: {}'.format(y))
# 将异常点绘制出来 plt.scatter(abnormal_x,abnormal_y,marker='x',label='abnormal')
 
没有添加异常点之前

添加异常点之后,那两个蓝色的点就是异常点

原文地址:https://www.cnblogs.com/lowbi/p/10709121.html