201116西瓜书机器学习系列---12、计算学习理论

201116西瓜书机器学习系列---12、计算学习理论

一、总结

一句话总结:

计算学习理论:研究【泛化误差】和【经验误差】之间的【逼近程度】

1、PAC可学习?

PAC可学习:以较大概率【预测】到【满足预测误差上限】的模型

2、量化假设空间的复杂度的方法?

【VC维和Rademacher复杂度】

3、计算学习理论:研究【经验误差】和【泛化误差】之间的逼近程度?

【已知数据集上的误差】称为经验误差,【全局数据集上的误差】称为泛化误差
【泛化误差】是我们【追求的目标】,【经验误差】是我们【已有数据集上的表现】;两者之间的逼近程度反应了【模型的准确度】或者说【模型的可用程度】

4、PAC可学习(以较大概率【预测】到【满足预测误差上限】的模型) 三个重要概念?

概念类:【目标概念】构成的【集合】;描述【数据】是【怎样生成】的
学习算法:例如【线性回归、逻辑回归、SVM等】
假设空间:学习算法的【所有可能的概念】的【集合】,例如线性回归里面y=5x+2和y=3x+5都属于假设空间里面的概念

5、PAC可学习:有限假设空间:①可分②不可分;在一定的条件下都是可学习的?

可分:目标概念【在假设空间中】;【不可分】:目标概念【不在】假设空间中
只有【理想情况】下是【可分】的,大部分【实际应用】都是【不可分】的
例如:预测某文章的点击率,实际点击的情况【受影响因素太多了】比如内容质量、推荐精准度,网速流畅程度、天气、用户心情等而假设空间中不可能把所有情况都假设进来
进一步验证【可分或者不可分在一定条件下都是可学习的】,否则算法工程师就失业了

6、VC维是什么?

用来【度量假设空间H(模型)的复杂度】:$$VC ( H ) = max { m : Pi _ { H } ( m ) = 2 ^ { m } }$$
VC维规律:【参数越多,VC维越大,模型容量大,表达能力强】,VC维度用来表达【模型的容量】

7、常见模型的模型容量?

一般按照线性模型、逻辑回归、决策树、SVM、深度学习,【模型容量逐步增加】

二、内容在总结中

博客对应课程的视频位置:

 
我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
博主25岁,前端后端算法大数据人工智能都有兴趣。
大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
聊技术,交朋友,修心境,qq404006308,微信fan404006308
26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
人工智能群:939687837

作者相关推荐

原文地址:https://www.cnblogs.com/Renyi-Fan/p/14003080.html