LR&PCA&KPCA

《Python机器学习》Sebastian Raschka著,机械工业出版社

定义

LR:给定一个自变量 x 和因变量 y ,拟合一条直线使得样例数据点与拟合直线之间的距离最短,最常用的是采用平均平方距离来计算。(P3)

PCA:在高维数据中找到最大方差的方向,并将数据映射到一个维度不大于原始数据的新的子空间上。(P77)

KPCA:通过非线性映射将数据转换到一个高维空间,然后在此高维空间中利用标准PCA将其映射到另外一个低维空间。(P92)

区别与联系

联系:都是降维

区别:

1、LR在纵轴方向上差的平方之和最小,PCA为垂直于向量方向上的差的平方之和最小。

2、KPCA非线性升维,之后等价于PCA

原文地址:https://www.cnblogs.com/Math-Nav/p/13207311.html