机器学习系列(4)_机器学习算法一览,应用建议与解决思路

作者:寒小阳
时间:2016年1月。
出处:http://blog.csdn.net/han_xiaoyang/article/details/50469334
声明:版权全部,转载请联系作者并注明出处

1.引言

提起笔来写这篇博客,突然有点愧疚和尴尬。

愧疚的是。工作杂事多,加之懒癌严重,导致这个系列一直没有更新,向关注该系列的同学们道个歉。

尴尬的是,按理说,机器学习介绍与算法一览应该放在最前面写,详细的应用建议应该在讲完机器学习经常使用算法之后写。突然莫名奇异在中间插播这么一篇,好像有点打乱主线。
老话说『亡羊补牢,为时未晚』,前面开头忘讲的东西。咱在这块儿补上。我们先带着大家过一遍传统机器学习算法,基本思想和用途。把问题解决思路和方法应用建议提前到这里的想法也非常easy,希望能提前给大家一些小建议,对于某些easy出错的地方也先给大家打个预防针。这样在理解兴许相应机器学习算法之后,使用起来也有一定的章法。

2.机器学习算法简述

依照不同的分类标准。能够把机器学习的算法做不同的分类。

2.1 从机器学习问题角度分类

我们先从机器学习问题本身分类的角度来看,我们能够分成下列类型的算法:

  • 监督学习算法

机器学习中有一大部分的问题属于『监督学习』的范畴,简单口语化地说明。这类问题中,给定的训练样本中,每一个样本的输入x都相应一个确定的结果y,我们须要训练出一个模型(数学上看是一个xy的映射关系f),在未知的样本x给定后。我们能对结果y做出预測。

这里的预測结果假设是离散值(非常多时候是类别类型。比方邮件分类问题中的垃圾邮件/普通邮件,比方用户会/不会购买某商品)。那么我们把它叫做分类问题(classification problem);假设预測结果是连续值(比方房价,股票价格等等)。那么我们把它叫做回归问题(regression problem)。

有一系列的机器学习算法是用以解决监督学习问题的,比方最经典的用于分类问题的朴素贝叶斯、逻辑回归、支持向量机等等;比方说用于回归问题的线性回归等等。

  • 无监督学习

有另外一类问题。给我们的样本并没有给出『标签/标准答案』,就是一系列的样本。而我们须要做的事情是,在一些样本中抽取出通用的规则。这叫做『无监督学习』。包含关联规则和聚类算法在内的一系列机器学习算法都属于这个范畴。

  • 半监督学习

这类问题给出的训练数据,有一部分有标签,有一部分没有标签。我们想学习出数据组织结构的同一时候,也能做相应的预測。此类问题相相应的机器学习算法有自训练(Self-Training)、直推学习(Transductive Learning)、生成式模型(Generative Model)等。

整体说来。最常见是前两类问题,而相应前两类问题的一些机器学习算法例如以下:

机器学习算法

2.2 从算法的功能角度分类

我们也能够从算法的共性(比方功能,运作方式)角度对机器学习算法分类。以下我们依据算法的共性去对它们归个类。只是须要注意的是,我们以下的归类方法可能对分类和回归有比較强的倾向性。而这两类问题也是最常遇到的。

2.2.1 回归算法(Regression Algorithms)


回归算法

回归算法是一种通过最小化预測值与实际结果值之间的差距,而得到输入特征之间的最佳组合方式的一类算法。对于连续值预測有线性回归等。而对于离散值/类别预測,我们也能够把逻辑回归等也视作回归算法的一种。常见的回归算法例如以下:

  • Ordinary Least Squares Regression (OLSR)
  • Linear Regression
  • Logistic Regression
  • Stepwise Regression
  • Locally Estimated Scatterplot Smoothing (LOESS)
  • Multivariate Adaptive Regression Splines (MARS)

2.2.2 基于实例的算法(Instance-based Algorithms)


基于实例的算法

这里所谓的基于实例的算法。我指的是我们最后建成的模型,对原始数据样本实例依然有非常强的依赖性。这类算法在做预測决策时,一般都是使用某类类似度准则,去比对待预測的样本和原始样本的相近度,再给出相应的预測结果。常见的基于实例的算法有:

  • k-Nearest Neighbour (kNN)
  • Learning Vector Quantization (LVQ)
  • Self-Organizing Map (SOM)
  • Locally Weighted Learning (LWL)

2.2.3 决策树类算法(Decision Tree Algorithms)


决策树类算法

决策树类算法,会基于原始数据特征,构建一颗包含非常多决策路径的树。预測阶段选择路径进行决策。

常见的决策树算法包含:

  • Classification and Regression Tree (CART)
  • Iterative Dichotomiser 3 (ID3)
  • C4.5 and C5.0 (different versions of a powerful approach)
  • Chi-squared Automatic Interaction Detection (CHAID)
  • M5
  • Conditional Decision Trees

2.2.4 贝叶斯类算法(Bayesian Algorithms)


贝叶斯类算法

这里说的贝叶斯类算法。指的是在分类和回归问题中。隐含使用了贝叶斯原理的算法。包含:

  • Naive Bayes
  • Gaussian Naive Bayes
  • Multinomial Naive Bayes
  • Averaged One-Dependence Estimators (AODE)
  • Bayesian Belief Network (BBN)
  • Bayesian Network (BN)

2.2.5 聚类算法(Clustering Algorithms)


聚类算法

聚类算法做的事情是,把输入样本聚成环绕一些中心的『数据团』。以发现数据分布结构的一些规律。

经常使用的聚类算法包含:

  • k-Means
  • Hierarchical Clustering
  • Expectation Maximisation (EM)

2.2.6 关联规则算法(Association Rule Learning Algorithms)


关联规则算法

关联规则算法是这样一类算法:它试图抽取出,最能解释观察到的训练样本之间关联关系的规则,也就是获取一个事件和其它事件之间依赖或关联的知识。常见的关联规则算法有:

  • Apriori algorithm
  • Eclat algorithm

2.2.7 人工神经网络类算法(Artificial Neural Network Algorithms)


人工神经网络类算法

这是受人脑神经元工作方式启示而构造的一类算法。须要提到的一点是,我把『深度学习』单拎出来了。这里说的人工神经网络偏向于更传统的感知算法。主要包含:

  • Perceptron
  • Back-Propagation
  • Radial Basis Function Network (RBFN)

2.2.8 深度学习(Deep Learning Algorithms)


深度学习

深度学习是近年来非常火的机器学习领域,相对于上面列的人工神经网络算法,它通常情况下,有着更深的层次和更复杂的结构。有兴趣的同学能够看看我们还有一个系列机器学习与计算机视觉,最常见的深度学习算法包含:

  • Deep Boltzmann Machine (DBM)
  • Deep Belief Networks (DBN)
  • Convolutional Neural Network (CNN)
  • Stacked Auto-Encoders

2.2.9 降维算法(Dimensionality Reduction Algorithms)


降维算法

从某种程度上说,降维算法和聚类事实上有点类似,由于它也在试图发现原始训练数据的固有结构,可是降维算法在试图。用更少的信息(更低维的信息)总结和描写叙述出原始信息的大部分内容。
有意思的是,降维算法一般在数据的可视化,或者是减少数据计算空间有非常大的作用。它作为一种机器学习的算法,非常多时候用它先处理数据,再灌入别的机器学习算法学习。基本的降维算法包含:

  • Principal Component Analysis (PCA)
  • Principal Component Regression (PCR)
  • Partial Least Squares Regression (PLSR)
  • Sammon Mapping
  • Multidimensional Scaling (MDS)
  • Linear Discriminant Analysis (LDA)
  • Mixture Discriminant Analysis (MDA)
  • Quadratic Discriminant Analysis (QDA)
  • Flexible Discriminant Analysis (FDA)

2.2.10 模型融合算法(Ensemble Algorithms)


模型融合算法

严格意义上来说,这不算是一种机器学习算法。而更像是一种优化手段/策略,它一般是结合多个简单的弱机器学习算法,去做更可靠的决策。拿分类问题举个例。直观的理解。就是单个分类器的分类是可能出错,不可靠的,可是假设多个分类器投票,那可靠度就会高非常多。

经常使用的模型融合增强方法包含:

  • Random Forest
  • Boosting
  • Bootstrapped Aggregation (Bagging)
  • AdaBoost
  • Stacked Generalization (blending)
  • Gradient Boosting Machines (GBM)
  • Gradient Boosted Regression Trees (GBRT)

2.3 机器学习算法使用图谱

scikit-learn作为一个丰富的python机器学习库。实现了绝大多数机器学习的算法。有相当多的人在使用,于是我这里非常无耻地把machine learning cheat sheet for sklearn搬过来了。原文能够看这里。哈哈。既然讲机器学习,我们就用机器学习的语言来解释一下,这是针对实际应用场景的各种条件限制,对scikit-learn里完毕的算法构建的一颗决策树,每一组条件都是相应一条路径,能找到相对较为合适的一些解决方法,详细例如以下:

sklearn机器学习算法使用图谱

首先样本量假设非常少的话,事实上全部的机器学习算法都没有办法从里面『学到』通用的规则和模式。so多弄点数据是王道。然后依据问题是有/无监督学习和连续值/离散值预測。分成了分类聚类回归维度约减四个方法类,每一个类里依据详细情况的不同,又有不同的处理方法。

3. 机器学习问题解决思路

上面带着代价走马观花过了一遍机器学习的若干算法,以下我们试着总结总结在拿到一个实际问题的时候,假设着手使用机器学习算法去解决这个问题。当中的一些注意点以及核心思路。

主要包含以下内容:

  • 拿到数据后怎么了解数据(可视化)
  • 选择最贴切的机器学习算法
  • 定位模型状态(过/欠拟合)以及解决方法
  • 大量极的数据的特征分析与可视化
  • 各种损失函数(loss function)的优缺点及怎样选择

多说一句,这里写的这个小教程,主要是作为一个通用的建议和指导方案,你不一定要严格依照这个流程解决机器学习问题。

3.1 数据与可视化

我们先使用scikit-learn的make_classification函数来生产一份分类数据,然后模拟一下拿到实际数据后我们须要做的事情。

#numpy科学计算工具箱
import numpy as np
#使用make_classification构造1000个样本,每一个样本有20个feature
from sklearn.datasets import make_classification
X, y = make_classification(1000, n_features=20, n_informative=2, 
                           n_redundant=2, n_classes=2, random_state=0)
#存为dataframe格式
from pandas import DataFrame
df = DataFrame(np.hstack((X, y[:, None])),columns = range(20) + ["class"])

我们生成了一份包含1000个分类数据样本的数据集,每一个样本有20个数值特征。

同一时候我们把数据存储至pandas中的DataFrame数据结构中。我们取前几行的数据看一眼:

df[:6]


前6行

不幸的是,肉眼看数据,尤其是维度略微高点的时候,非常有可能看花了也看不出看不出不论什么线索。

幸运的是,我们对于图像的理解力,比数字好太多,而又有相当多的工具能够帮助我们『可视化』数据分布。

我们在处理不论什么数据相关的问题时,了解数据都是非常有必要的,而可视化能够帮助我们更好地直观理解数据的分布和特性

数据的可视化有非常多工具包能够用,比方以下我们用来做数据可视化的工具包Seaborn。最简单的可视化就是数据散列分布图和柱状图,这个能够用Seanborn的pairplot来完毕。以下图中2种颜色表示2种不同的类。由于20维的可视化没有办法在平面表示,我们取出了一部分维度,两两组成pair看数据在这2个维度平面上的分布状况,代码和结果例如以下:

import matplotlib.pyplot as plt
import seaborn as sns
#使用pairplot去看不同特征维度pair下数据的空间分布状况
_ = sns.pairplot(df[:50], vars=[8, 11, 12, 14, 19], hue="class", size=1.5)
plt.show()


pair_plot下数据分布状况

我们从散列图和柱状图上能够看出,确实有些维度的特征相对其它维度,有更好的区分度,比方第11维和14维看起来非常有区分度。这两个维度上看,数据点是近似线性可分的。而12维和19维似乎呈现出了非常高的负相关性。接下来我们用Seanborn中的corrplot来计算计算各维度特征之间(以及最后的类别)的相关性。代码和结果图例如以下:

import matplotlib.pyplot as plt
plt.figure(figsize=(12, 10))
_ = sns.corrplot(df, annot=False)
plt.show()


各位特征相关性

相关性图非常好地印证了我们之前的想法,能够看到第11维特征和第14维特征和类别有极强的相关性。同一时候它们俩之间也有极高的相关性。

而第12维特征和第19维特征却呈现出极强的负相关性。强相关的特征事实上包含了一些冗余的特征,而除掉上图中颜色较深的特征,其余特征包含的信息量就没有这么大了。它们和最后的类别相关度不高,甚至各自之间也没什么先惯性。

插一句。这里的维度仅仅有20,所以这个相关度计算并不费太大力气,然而实际情形中,你全然有可能有远高于这个数字的特征维度,同一时候样本量也可能多非常多,那种情形下我们可能要先做一些处理,再来实现可视化了。别着急,一会儿我们会讲到。

3.2 机器学习算法选择

数据的情况我们大致看了一眼。确定一些特征维度之后,我们能够考虑先选用机器学习算法做一个baseline的系统出来了。这里我们继续參照上面提到过的机器学习算法使用图谱
我们仅仅有1000个数据样本。是分类问题,同一时候是一个有监督学习。因此我们依据图谱里教的方法,使用LinearSVC(support vector classification with linear kernel)试试。注意,LinearSVC须要选择正则化方法以缓解过拟合问题;我们这里选择使用最多的L2正则化,并把惩处系数C设为10。我们改写一下sklearn中的学习曲线绘制函数,画出训练集和交叉验证集上的得分:

from sklearn.svm import LinearSVC
from sklearn.learning_curve import learning_curve
#绘制学习曲线,以确定模型的状况
def plot_learning_curve(estimator, title, X, y, ylim=None, cv=None,
                        train_sizes=np.linspace(.1, 1.0, 5)):
    """
    画出data在某模型上的learning curve.
    參数解释
    ----------
    estimator : 你用的分类器。
    title : 表格的标题。
    X : 输入的feature,numpy类型
    y : 输入的target vector
    ylim : tuple格式的(ymin, ymax), 设定图像中纵坐标的最低点和最高点
    cv : 做cross-validation的时候。数据分成的份数,当中一份作为cv集,其余n-1份作为training(默觉得3份)
    """

    plt.figure()
    train_sizes, train_scores, test_scores = learning_curve(
        estimator, X, y, cv=5, n_jobs=1, train_sizes=train_sizes)
    train_scores_mean = np.mean(train_scores, axis=1)
    train_scores_std = np.std(train_scores, axis=1)
    test_scores_mean = np.mean(test_scores, axis=1)
    test_scores_std = np.std(test_scores, axis=1)

    plt.fill_between(train_sizes, train_scores_mean - train_scores_std,
                     train_scores_mean + train_scores_std, alpha=0.1,
                     color="r")
    plt.fill_between(train_sizes, test_scores_mean - test_scores_std,
                     test_scores_mean + test_scores_std, alpha=0.1, color="g")
    plt.plot(train_sizes, train_scores_mean, 'o-', color="r",
             label="Training score")
    plt.plot(train_sizes, test_scores_mean, 'o-', color="g",
             label="Cross-validation score")

    plt.xlabel("Training examples")
    plt.ylabel("Score")
    plt.legend(loc="best")
    plt.grid("on") 
    if ylim:
        plt.ylim(ylim)
    plt.title(title)
    plt.show()

#少样本的情况情况下绘出学习曲线
plot_learning_curve(LinearSVC(C=10.0), "LinearSVC(C=10.0)",
                    X, y, ylim=(0.8, 1.01),
                    train_sizes=np.linspace(.05, 0.2, 5))


学习曲线1

这幅图上,我们发现随着样本量的添加,训练集上的得分有一定程度的下降。交叉验证集上的得分有一定程度的上升,但整体说来。两者之间有非常大的差距。训练集上的精确度远高于交叉验证集。这事实上意味着我们的模型处于过拟合的状态,也即模型太努力地刻画训练集。一不小心把非常多噪声的分布也拟合上了,导致在新数据上的泛化能力变差了。

3.2.1 过拟合的定位与解决

问题来了。过拟合咋办?
针对过拟合,有几种办法能够处理:

  • 增大样本量

这个比較好理解吧,过拟合的主要原因是模型太努力地去记住训练样本的分布状况。而加大样本量。能够使得训练集的分布更加具备普适性,噪声对整体的影响下降。

恩。我们提高点样本量试试:

#增大一些样本量
plot_learning_curve(LinearSVC(C=10.0), "LinearSVC(C=10.0)",
                    X, y, ylim=(0.8, 1.1),
                    train_sizes=np.linspace(.1, 1.0, 5))


学习曲线2

是不是发现问题好了非常多?随着我们增大训练样本量,我们发现训练集和交叉验证集上的得分差距在减少。最后它们已经非常接近了。增大样本量,最直接的方法当然是想办法去採集同样场景下的新数据,假设实在做不到,也能够试试在已有数据的基础上做一些人工的处理生成新数据(比方图像识别中。我们可能能够对图片做镜像变换、旋转等等)。当然,这样做一定要慎重,强烈建议想办法採集真实数据。

  • 减少特征的量(仅仅用我们觉得有效的特征)

比方在这个样例中。我们之前的数据可视化和分析的结果表明,第11和14维特征包含的信息对识别类别非常实用,我们能够仅仅用它们。

plot_learning_curve(LinearSVC(C=10.0), "LinearSVC(C=10.0) Features: 11&14", X[:, [11, 14]], y, ylim=(0.8, 1.0), train_sizes=np.linspace(.05, 0.2, 5))


特征选择后

从上图上能够看出,过拟合问题也得到一定程度的缓解。只是我们这是自己观察后,手动选出11和14维特征。那能不能自己主动进行特征组合和选择呢,事实上我们当然能够遍历特征的组合样式,然后再进行特征选择(前提依然是这里特征的维度不高。假设高的话,遍历全部的组合是一个非常非常非常耗时的过程。。):

from sklearn.pipeline import Pipeline
from sklearn.feature_selection import SelectKBest, f_classif
# SelectKBest(f_classif, k=2) 会依据Anova F-value选出 最好的k=2个特征

plot_learning_curve(Pipeline([("fs", SelectKBest(f_classif, k=2)), # select two features
                               ("svc", LinearSVC(C=10.0))]), "SelectKBest(f_classif, k=2) + LinearSVC(C=10.0)", X, y, ylim=(0.8, 1.0), train_sizes=np.linspace(.05, 0.2, 5))


自己主动特征选择

假设你自己跑一下程序。会发如今我们自己手造的这份数据集上,这个特征筛选的过程超级顺利,但依然像我们之前提过的一样。这是由于特征的维度不太高。
从另外一个角度看,我们之所以做特征选择。是想减少模型的复杂度,而更不easy刻画到噪声数据的分布。从这个角度出发,我们还能够有(1)多项式你和模型中减少多项式次数 (2)神经网络中减少神经网络的层数和每层的结点数 (c)SVM中添加RBF-kernel的bandwidth等方式来减少模型的复杂度。


话说回来。即使以上提到的办法减少模型复杂度后,好像能在一定程度上缓解过拟合,可是我们一般还是不建议一遇到过拟合。就用这些方法处理,优先用以下的方法:

  • 增强正则化作用(比方说这里是减小LinearSVC中的C參数)
    正则化是我觉得在不损失信息的情况下,最有效的缓解过拟合现象的方法。
plot_learning_curve(LinearSVC(C=0.1), "LinearSVC(C=0.1)", X, y, ylim=(0.8, 1.0), train_sizes=np.linspace(.05, 0.2, 5))


调整正则化參数

调整正则化系数后,发现确实过拟合现象有一定程度的缓解,但依然是那个问题,我们如今的系数是自己敲定的,有没有办法能够自己主动选择最佳的这个參数呢?能够。我们能够在交叉验证集上做grid-search查找最好的正则化系数(对于大数据样本,我们依然须要考虑时间问题。这个过程可能会比較慢):

from sklearn.grid_search import GridSearchCV
estm = GridSearchCV(LinearSVC(), 
                   param_grid={"C": [0.001, 0.01, 0.1, 1.0, 10.0]})
plot_learning_curve(estm, "LinearSVC(C=AUTO)", 
                    X, y, ylim=(0.8, 1.0),
                    train_sizes=np.linspace(.05, 0.2, 5))
print "Chosen parameter on 100 datapoints: %s" % estm.fit(X[:500], y[:500]).best_params_

在500个点得到的结果是:{‘C’: 0.01}
使用新的C參数,我们再看看学习曲线:


C取0.01的学习曲线

对于特征选择的部分,我打算多说几句,我们刚才看过了用sklearn.feature_selection中的SelectKBest来选择特征的过程。也提到了在高维特征的情况下,这个过程可能会非常非常慢。那我们有别的办法能够进行特征选择吗?比方说,我们的分类器自己是否能甄别那些特征是对最后的结果故意的?这里有个实际工作中用到的小技巧。

我们知道:

  • l2正则化,它对于最后的特征权重的影响是。尽量打散权重到每一个特征维度上,不让权重集中在某些维度上,出现权重特别高的特征。
  • 而l1正则化,它对于最后的特征权重的影响是,让特征获得的权重稀疏化,也就是对结果影响不那么大的特征。干脆就拿不着权重。

那基于这个理论。我们能够把SVC中的正则化替换成l1正则化。让其自己主动甄别哪些特征应该留下权重。

plot_learning_curve(LinearSVC(C=0.1, penalty='l1', dual=False), "LinearSVC(C=0.1, penalty='l1')", X, y, ylim=(0.8, 1.0), train_sizes=np.linspace(.05, 0.2, 5))


使用l1正则化

好了,我们一起来看看最后特征获得的权重:

estm = LinearSVC(C=0.1, penalty='l1', dual=False)
estm.fit(X[:450], y[:450])  # 用450个点来训练
print "Coefficients learned: %s" % est.coef_
print "Non-zero coefficients: %s" % np.nonzero(estm.coef_)[1]

得到结果:

Coefficients learned: [[ 0.          0.          0.          0.          0.          0.01857999
   0.          0.          0.          0.004135    0.          1.05241369
   0.01971419  0.          0.          0.          0.         -0.05665314
   0.14106505  0.        ]]
Non-zero coefficients: [5 9 11 12 17 18]

你看,5 9 11 12 17 18这些维度的特征获得了权重。而第11维权重最大,也说明了它影响程度最大。

3.2.2 欠拟合定位与解决

我们再随机生成一份数据[1000*20]的数据(可是分布和之前有变化)。又一次使用LinearSVC来做分类。

#构造一份环形数据
from sklearn.datasets import make_circles
X, y = make_circles(n_samples=1000, random_state=2)
#绘出学习曲线
plot_learning_curve(LinearSVC(C=0.25),"LinearSVC(C=0.25)",X, y, ylim=(0.5, 1.0),train_sizes=np.linspace(.1, 1.0, 5))


环形数据的学习曲线

简直烂出翔了有木有,二分类问题,我们做随机推測。准确率都有0.5,这比随机推測都高不了多少。!!

怎么办?

不要盲目动手收集很多其它资料,或者调整正则化參数。我们从学习曲线上事实上能够看出来。训练集上的精确度和交叉验证集上的精确度都非常低,这事实上就相应了我们说的『欠拟合』状态。

别急,我们回到我们的数据,还是可视化看看:

f = DataFrame(np.hstack((X, y[:, None])), columns = range(2) + ["class"])
_ = sns.pairplot(df, vars=[0, 1], hue="class", size=3.5)


环形数据可视化

你发现什么了,数据根本就没办法线性切割!!!

,所以你再找很多其它的数据。或者调整正则化參数,都是无济于事的!。!

那我们又怎么解决欠拟合问题呢?通常有以下一些方法:

  • 调整你的特征(找更有效的特征!。)
    比方说我们观察完如今的数据分布,然后我们先对数据做个映射:
# 添加原始特征的平方项作为新特征
X_extra = np.hstack((X, X[:, [0]]**2 + X[:, [1]]**2))

plot_learning_curve(LinearSVC(C=0.25), "LinearSVC(C=0.25) + distance feature", X_extra, y, ylim=(0.5, 1.0), train_sizes=np.linspace(.1, 1.0, 5))


平方映射后的精确度

卧槽,少年,这准确率,被吓尿了有木有啊!!

。所以你看,选用的特征影响太大了。当然。我们这里是人工模拟出来的数据,分布太明显了。实际数据上,会比这个麻烦一些,可是在特征上面下的功夫还是非常有回报的。

  • 使用更复杂一点的模型(比方说用非线性的核函数)
    我们对模型略微调整了一下,用了一个复杂一些的非线性rbf kernel:
from sklearn.svm import SVC
# note: we use the original X without the extra feature
plot_learning_curve(SVC(C=2.5, kernel="rbf", gamma=1.0), "SVC(C=2.5, kernel='rbf', gamma=1.0)",X, y, ylim=(0.5, 1.0), train_sizes=np.linspace(.1, 1.0, 5))


rbf核SVM学习曲线

你看。效果依然非常赞。

3.3 关于大数据样本集和高维特征空间

我们在小样本的toy dataset上,怎么捣鼓都有好的方法。

可是当数据量和特征样本空间膨胀非常厉害时。非常多东西就没有那么好使了,至少是一个非常耗时的过程。举个样例说,我们如今又一次生成一份数据集,可是这次,我们生成很多其它的数据,更高的特征维度。而分类的类别也提高到5。

3.3.1 大数据情形下的模型选择与学习曲线

在上面提到的那样一份数据上,我们用LinearSVC可能就会有点慢了。我们注意到机器学习算法使用图谱推荐我们使用SGDClassifier

事实上本质上说,这个模型也是一个线性核函数的模型,不同的地方是。它使用了随机梯度下降做训练,所以每次并没有使用全部的样本。收敛速度会快非常多。再多提一点,SGDClassifier对于特征的幅度非常敏感,也就是说,我们在把数据灌给它之前。应该先对特征做幅度调整。当然。用sklearn的StandardScaler能够非常方便地完毕这一点。

SGDClassifier每次仅仅使用一部分(mini-batch)做训练,在这样的情况下,我们使用交叉验证(cross-validation)并非非常合适,我们会使用相相应的progressive validation:简单解释一下,estimator每次仅仅会拿下一个待训练batch在本次做评估。然后训练完之后。再在这个batch上做一次评估,看看是否有优化。

#生成大样本,高纬度特征数据
X, y = make_classification(200000, n_features=200, n_informative=25, n_redundant=0, n_classes=10, class_sep=2, random_state=0)

#用SGDClassifier做训练,并画出batch在训练前后的得分差
from sklearn.linear_model import SGDClassifier
est = SGDClassifier(penalty="l2", alpha=0.001)
progressive_validation_score = []
train_score = []
for datapoint in range(0, 199000, 1000):
    X_batch = X[datapoint:datapoint+1000]
    y_batch = y[datapoint:datapoint+1000]
    if datapoint > 0:
        progressive_validation_score.append(est.score(X_batch, y_batch))
    est.partial_fit(X_batch, y_batch, classes=range(10))
    if datapoint > 0:
        train_score.append(est.score(X_batch, y_batch))

plt.plot(train_score, label="train score")
plt.plot(progressive_validation_score, label="progressive validation score")
plt.xlabel("Mini-batch")
plt.ylabel("Score")
plt.legend(loc='best')  
plt.show()                     

得到例如以下的结果:


SGDClassifier学习曲线

从这个图上的得分,我们能够看出在50个mini-batch迭代之后,数据上的得分就已经变化不大了。可是好像得分都不太高,所以我们推測一下。这个时候我们的数据,处于欠拟合状态。

我们刚才在小样本集合上提到了,假设欠拟合,我们能够使用更复杂的模型,比方把核函数设置为非线性的,但遗憾的是像rbf核函数是没有办法和SGDClassifier兼容的。因此我们仅仅能想别的办法了,比方这里。我们能够把SGDClassifier整个替换掉了,用多层感知神经网来完毕这个任务,我们之所以会想到多层感知神经网,是由于它也是一个用随机梯度下降训练的算法。同一时候也是一个非线性的模型。当然依据机器学习算法使用图谱,也能够使用核预计(kernel-approximation)来完毕这个事情。

3.3.2 大数据量下的可视化

大样本数据的可视化是一个相对照较麻烦的事情,普通情况下我们都要用到降维的方法先处理特征。我们找一个样例来看看。能够怎么做。比方我们数据集取经典的『手写数字集』,首先找个方法看一眼这个图片数据集。

#直接从sklearn中load数据集
from sklearn.datasets import load_digits
digits = load_digits(n_class=6)
X = digits.data
y = digits.target
n_samples, n_features = X.shape
print "Dataset consist of %d samples with %d features each" % (n_samples, n_features)

# 绘制数字示意图
n_img_per_row = 20
img = np.zeros((10 * n_img_per_row, 10 * n_img_per_row))
for i in range(n_img_per_row):
    ix = 10 * i + 1
    for j in range(n_img_per_row):
        iy = 10 * j + 1
        img[ix:ix + 8, iy:iy + 8] = X[i * n_img_per_row + j].reshape((8, 8))

plt.imshow(img, cmap=plt.cm.binary)
plt.xticks([])
plt.yticks([])
_ = plt.title('A selection from the 8*8=64-dimensional digits dataset')
plt.show()


数字示意图

我们总共同拥有1083个训练样本,包含手写数字(0,1,2,3,4,5),每一个样本图片中的像素点平铺开都是64位。这个维度显然是没办法直接可视化的。

以下我们基于scikit-learn的演示样例教程对特征用各种方法做降维处理。再可视化。

随机投射
我们先看看。把数据随机投射到两个维度上的结果:

#import所需的package
from sklearn import (manifold, decomposition, random_projection)
rp = random_projection.SparseRandomProjection(n_components=2, random_state=42)

#定义画图函数
from matplotlib import offsetbox
def plot_embedding(X, title=None):
    x_min, x_max = np.min(X, 0), np.max(X, 0)
    X = (X - x_min) / (x_max - x_min)

    plt.figure(figsize=(10, 10))
    ax = plt.subplot(111)
    for i in range(X.shape[0]):
        plt.text(X[i, 0], X[i, 1], str(digits.target[i]),
                 color=plt.cm.Set1(y[i] / 10.),
                 fontdict={'weight': 'bold', 'size': 12})

    if hasattr(offsetbox, 'AnnotationBbox'):
        # only print thumbnails with matplotlib > 1.0
        shown_images = np.array([[1., 1.]])  # just something big
        for i in range(digits.data.shape[0]):
            dist = np.sum((X[i] - shown_images) ** 2, 1)
            if np.min(dist) < 4e-3:
                # don't show points that are too close
                continue
            shown_images = np.r_[shown_images, [X[i]]]
            imagebox = offsetbox.AnnotationBbox(
                offsetbox.OffsetImage(digits.images[i], cmap=plt.cm.gray_r),
                X[i])
            ax.add_artist(imagebox)
    plt.xticks([]), plt.yticks([])
    if title is not None:
        plt.title(title)

#记录開始时间
start_time = time.time()
X_projected = rp.fit_transform(X)
plot_embedding(X_projected, "Random Projection of the digits (time: %.3fs)" % (time.time() - start_time))

结果例如以下:


2方向随机投射图

PCA降维
在维度约减/降维领域有一个非常强大的算法叫做PCA(Principal Component Analysis,主成分分析),它能将原始的绝大多数信息用维度远低于原始维度的几个主成分表示出来。PCA在我们如今的数据集上效果还不错,我们来看看用PCA对原始特征降维至2维后,原始样本在空间的分布状况:

from sklearn import (manifold, decomposition, random_projection)
#TruncatedSVD 是 PCA的一种实现
X_pca = decomposition.TruncatedSVD(n_components=2).fit_transform(X)
#记录时间
start_time = time.time()
plot_embedding(X_pca,"Principal Components projection of the digits (time: %.3fs)" % (time.time() - start_time))

得到的结果例如以下:


PCA后的可视化

我们能够看出,效果还不错,不同的手写数字在2维平面上,显示出了区域集中性。即使它们之间有一定的重叠区域。

假设我们用一些非线性的变换来做降维操作。从原始的64维降到2维空间,效果更好,比方这里我们用到一个技术叫做t-SNE,sklearn的manifold对其进行了实现:

from sklearn import (manifold, decomposition, random_projection)
#降维
tsne = manifold.TSNE(n_components=2, init='pca', random_state=0)
start_time = time.time()
X_tsne = tsne.fit_transform(X)
#画图
plot_embedding(X_tsne,
               "t-SNE embedding of the digits (time: %.3fs)" % (time.time() - start_time))


非线性降维手写数字分布图

我们发现结果非常的惊人,似乎这个非线性变换降维过后,仅仅2维的特征,就能够将原始数据的不同类别。在平面上非常好地划分开。只是t-SNE也有它的缺点,一般说来,相对于线性变换的降维,它须要很多其它的计算时间。

也不太适合在大数据集上全集使用。

3.4 损失函数的选择

损失函数的选择对于问题的解决和优化,非常重要。我们先来看一眼各种不同的损失函数:

import numpy as np
import matplotlib.plot as plt
# 改自http://scikit-learn.org/stable/auto_examples/linear_model/plot_sgd_loss_functions.html
xmin, xmax = -4, 4
xx = np.linspace(xmin, xmax, 100)
plt.plot([xmin, 0, 0, xmax], [1, 1, 0, 0], 'k-',
         label="Zero-one loss")
plt.plot(xx, np.where(xx < 1, 1 - xx, 0), 'g-',
         label="Hinge loss")
plt.plot(xx, np.log2(1 + np.exp(-xx)), 'r-',
         label="Log loss")
plt.plot(xx, np.exp(-xx), 'c-',
         label="Exponential loss")
plt.plot(xx, -np.minimum(xx, 0), 'm-',
         label="Perceptron loss")

plt.ylim((0, 8))
plt.legend(loc="upper right")
plt.xlabel(r"Decision function $f(x)$")
plt.ylabel("$L(y, f(x))$")
plt.show()

得到结果图像例如以下:


损失函数对照

不同的损失函数有不同的优缺点:

  • 0-1损失函数(zero-one loss)非常好理解,直接相应分类问题中推断错的个数。

    可是比較尴尬的是它是一个非凸函数,这意味着事实上不是那么实用。

  • hinge loss(SVM中使用到的)的健壮性相对较高(对于异常点/噪声不敏感)。可是它没有那么好的概率解释。
  • log损失函数(log-loss)的结果能非常好地表征概率分布。

    因此在非常多场景,尤其是多分类场景下,假设我们须要知道结果属于每一个类别的置信度,那这个损失函数非常适合。缺点是它的健壮性没有那么强。相对hinge loss会对噪声敏感一些。

  • 多项式损失函数(exponential loss)(AdaBoost中用到的)对离群点/噪声非常非常敏感。可是它的形式对于boosting算法简单而有效。
  • 感知损失(perceptron loss)能够看做是hinge loss的一个变种。

    hinge loss对于判定边界附近的点(正确端)惩处力度非常高。

    而perceptron loss。仅仅要样本的判定类别结果是正确的,它就是惬意的,而无论其离判定边界的距离。长处是比hinge loss简单。缺点是由于不是max-margin boundary,所以得到模型的泛化能力没有hinge loss强。

4. 总结

全文到此就结束了。

先走马观花看了一遍机器学习的算法,然后给出了相应scikit-learn的『秘密武器』机器学习算法使用图谱,紧接着从了解数据(可视化)选择机器学习算法定位过/欠拟合及解决方法大量极的数据可视化损失函数优缺点与选择等方面介绍了实际机器学习问题中的一些思路和方法。本文和文章机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾都提及了一些处理实际机器学习问题的思路和方法。有类似和互补之处,欢迎大家參照着看。

原文地址:https://www.cnblogs.com/slgkaifa/p/7151542.html