机器学习

[f( extbf{x})= extbf{w}^T extbf{x}+b ]

可解释性好。

存在序关系的属性可以转化为连续值,而不存在序关系的属性,若有 (k) 个属性值,则通常转化为 (k) 维向量。

例如:

属性“身高”的取值“高”、“矮”可以转化为 ({1.0,0.0}) ,而属性“瓜类”的取值“西瓜”、“南瓜”、“黄瓜”可以转化为 ((0,0,1),(0,1,0),(1,0,0))

线性回归试图使得 (f(x_i)=wx_i+b) 的值接近 (y_i) 的值。

关键在于如何衡量 (f(x))(y) 之间的差别。

均方误差是回归任务中最常用的性能度量,可以试图使得均方误差最小化。

均方误差拥有非常好的几何意义,对应了常用的欧几里得距离。

基于均方误差最小化来进行模型求解的方法称为“最小二乘法”。

求解 (w)(b) 使得 (E_(w,b)=sum_{i=1}^{m}(y_i-wx_i-b)^2) 最小化的过程,称为线性回归模型的最小二乘参数估计。

(E_(w,b))(w)(b) 求偏导,得到

//TODO

然后让上式为0就得到了 (w)(b) 最优解的闭式解。

矩阵求导的教程:https://www.jianshu.com/p/6b64b7ee6ec2

变量的数目超过样例数,导致 ( extbf{X}^T extbf{X}) 不是满秩矩阵,可以解出多种解都可以使得均方误差最小化,这时候结果由学习算法的归纳偏好决定,或者进入正则化项。

Sigmoid函数

对数几率函数

[y=frac{1}{1+e^{-z}} ]

使用对数几率函数的叫做对数几率回归,虽然名字是“回归”,但是实际上是一种分类学习方法。

优点:直接对分类可能性进行建模,无需事先假设数据分布。

高阶可导连续凸函数,根据凸优化理论,经典的数值优化算法如梯度下降法、牛顿法等都可以求得最优解。

线性判别分析

LDA

3.6 类别不平衡问题

前面的分类学习方法有一个共同的基本假设,就是不同类别的训练样例数目相当。若有998个反例,2个正例,则一个永远返回预测为反例的学习器就能达到99.8%的精度,但是这样的学习器往往没有价值,因为它不能预测任何正例。

通常假设训练集是真实样本总体的无偏采样,于是只要分类器的预测几率高于观测几率就应判定为正例。

欠采样

去除一些反例使得正反数目接近。

过采样

增加一些正例使得正反数目接近。

阈值移动

过采样法不能简单地对初始正例样本进行重复采样,否则会导致严重的过拟合。

过采样法的代表性算法SMOTE是通过在训练集里的正例进行插值来产生额外的正例。

欠采样法不能随机丢弃反例,否则可能会丢失一些重要信息。代表性算法EasyEnsemble是利用集成学习机制,将反例划分为若干个集合供不同的学习器使用。

再缩放是代价敏感学习的基础,设 (cost^+) 是将正例误分为反例的代价, (cost^-) 是将反例误分为正例的代价,用 (frac{cost^+}{cost^-}) 代替掉 (frac{m^+}{m^-}) 即可。

原文地址:https://www.cnblogs.com/KisekiPurin2019/p/12865617.html