机器学习——分类和回归

1.机器学习的主要任务:
一是将实例数据划分到合适的分类中,即分类问题。 而是是回归, 它主要用于预测数值型数据,典型的回归例子:数据拟合曲线。

2.监督学习和无监督学习:

分类和回归属于监督学习,之所以称之为监督学习,是因为这类算法必须直到预测什么,即目标变量的分类信息

对于无监督学习,此时数据没有类别信息,也不会给定目标值。在无监督学习中,将数据集合分成由类似的对象组成的多个类的过程被成为聚类;将寻找描述数据统计值的过程称之为密度估计。此外,无监督学习还可以减少数据特征的维度,以便我们可以使用二维或者三维图形更加直观地展示数据信息。

3.线性回归和非线性回归

  线性回归需要一个线性模型。一个线性的模型意味着模型的每一项要么是一个常数,要么是一个常数和一个预测变量的乘积。一个线性等式等于每一项相加的和。等式:

Response = constant + parameter * predictor + ... + parameter * predictor  <=>  Y = b o + b1X1 + b2X2 + ... + bkXk

在统计学中,如果一个回归方程是线性的,那么它的参数必须是线性的。但是可以转换预测变量加上平方,来使得模型产生曲线,比如 Y = b o + b1X1 + b2X12

这时模型仍然是线性的,虽然预测变量带有平方。当然加上log或者反函数也是可以的。

 另外可以参考的博文:Khan公开课 - 统计学学习笔记:(九)线性回归公式,决定系数和协方差  

线性回归等式有一个基本的形式,而非线性回归提供了许多灵活的曲线拟合方程。以下是几个MATLAB中的典型非线性方程例子。

非线性函数的一个例子就是高阶多项式(即多项式阶数p>1):G = a o + a1X + a2X^2+ ... + akX^k。其他类型的非线性函数可通过泰勒展开用多项式逼近表示。函数G在x0处的线性近似为G(x0)+G'(x0)(x-x0)。

原文地址:https://www.cnblogs.com/tonglin0325/p/6044882.html