机器学习---算法学习1

朴素贝叶斯公式:求A在B条件下的概率,可以转换为B在A条件下的概率。

Hmm隐马尔科夫:每个输出状态仅仅由当前时刻的输入状态激活;状态之间的转移,仅仅取决于前一时刻的状态。

动态规划:只考虑前后的转移,只需要找首尾还有中间的关系,每一步就是求一小步的最优。分词,词性标注,输入法, OCR ,纠错,语音识别。

线性回归:

逻辑回归(sigmoid):在线性组合的基础上加了个非线性的激活函数,用于解决二分类问题,softmax,用于解决多分类问题。

集成学习(连续模型):针对错误的模型进行训练,设置多个模型,每个模型都有不同的权重,逐层进行逻辑回归、或则其他逐层激活函数~ ,集成学习是一种学习策略,把组合的模型当作初始化模型,组合再组合,就是多层神经网络(MLP)

数学角度:矩阵运算与激活函数的层叠------f(...f(w2f(w1x+b1)+b2)) (里面是线性激活函数,最外面用的是非线性激活函数)

结构角度:"线性组合+激活函数" 组成弱分类器,然后弱分类器进行boosting

原文地址:https://www.cnblogs.com/alantechnique/p/6658601.html