机器学习之常用算法

1、按照学习方式划分
      1.1 监督学习:输入数据称为“训练数据”,每组训练数据有一个明确的标识或结果。在建立模型的时候,监督学习建立一个学习过程,将预测结果与“训练数据”的实际结果进行比较,不断调整预测模型,直到模型的预测结果达到一个预期的标准。
      1.2 无监督学习:数据并没有被特别标识,学习模型是为了推断出数据的一些内在结构。
      1.3 半监督学习:输入数据部分被标识,部分没有被标识,这种学习模型可以用来预测。
      1.4 强化学习:输入数据作为对模型的反馈,不像监督学习那样,输入数据仅仅是作为一个检查模型对错的方式,在强化学习下,输入数据直接反馈到模型,模型必须对此立刻做出调整。


2、按照算法相似性划分
      2.1 回归算法:研究自变量和因变量关系(最小二乘法、逻辑回归)
      2.2 基于实例的算法:对决策问题建立模型,常常先取一批数据样本,然后根据某些相似性把新数据与样本数据进行比较,通过这种方法来寻找最佳匹配。(KNN、学习矢量量化)
      2.3 正则化方法:根据算法的复杂度对算法进行调整,常常对简单模型予以奖励,对复杂算法予以惩罚。(岭回归、套索方法)
      2.4 决策树学习:根据数据的属性采用树状结构建立决策模型,常用来解决分类和回归问题。(分类及回归树、ID3、C4.5单层决策树、随机森林)
      2.5 贝叶斯方法:基于贝叶斯定理的一类算法统称为贝叶斯算法,是为了解决不定性和不完整性问题提出的,对于解决复杂问题设备不确定性和关联性引起的故障有很大优势。(朴素贝叶斯算法、贝叶斯信念网络)
      2.6 基于核的方法:将输入数据映射到一个高阶的向量空间,在高阶空间向量里,有些分类或者回归问题能更容易地解决。(支持向量机SVM、线性判别分析LDA、径向基函数RBF)
      2.7 聚类算法:按照中心点或者分层的方式对输入数据进行归并,试图找到数据的内在结构,以便按照最大的共同点将数据进行归类。(k-means算法、期望最大化算法EM)
      2.8 关联规则学习:通过寻找最能够解释数据变量之间关系的规则,来找出大量多元数据集中有用的相关性规则。(Apriori算法、Eclat算法)
      2.9 人工神经网络:模拟生物神经网络,是一类模式匹配算法,通常用于解决分类和回归问题。(感知器神经网络、反向传递、Hopfield网络、自组织映射、学习矢量量化)
      2.10 降维算法:试图利用较少的信息来归纳或解释数据,可以用于高维数据的可视化或者简化数据以便监督学习使用。(主成分分析PCA、偏最小二乘回归PLS、Sammon映射)
      2.11 深度学习:对人工神经网络的发展。(深度置信网络DBN、卷积网络、受限玻尔兹曼机RBN)
      2.12 集成算法:用一些相对较弱的学习模型独立地就同样地样本进行训练,然后把结果整合起来进行整体预测。(Boosting、Bagging、AdaBoost、随机森林)

参考文献:

        赵涓涓,强彦.Python机器学习[M].北京。:机械工业出版社,2019.6

原文地址:https://www.cnblogs.com/yqw0710/p/15480772.html