sklearn学习笔记

用Bagging优化模型的过程:
1、对于要使用的弱模型(比如线性分类器、岭回归),通过交叉验证的方式找到弱模型本身的最好超参数;
2、然后用这个带着最好超参数的弱模型去构建强模型;
3、对强模型也是通过交叉验证的方式找到强模型的最好超参数(比如弱模型的数量)

对于Bagging、RandomForest、Boosting这些组合算法,默认是用的弱模型是决策树,但是可以通过base_estimator参数调整。

np.linspace() 创建等比数列,生成(start,stop)区间指定元素个数num的list,均匀分布
np.logspace() log分布间距生成list
np.arange() 生成(start,stop)区间指定步长step的list

numpy库:常用基本
https://www.cnblogs.com/smallpi/p/4550361.html

scikit-learn 中文文档
http://cwiki.apachecn.org/display/sklearn/Index
http://sklearn.apachecn.org/#/ (需要翻墙)


模型评估: 量化预测的质量
https://blog.csdn.net/marsjhao/article/details/78678276

30分钟学会用scikit-learn的基本回归方法(线性、决策树、SVM、KNN)和集成方法(随机森林,Adaboost和GBRT)
https://blog.csdn.net/u010900574/article/details/52666291

很值得看的特征选择 方法
https://www.cnblogs.com/stevenlk/p/6543628.html


XGboost数据比赛实战之调参篇
https://blog.csdn.net/sinat_35512245/article/details/79700029

Scikit中的特征选择,XGboost进行回归预测,模型优化的完整过程
https://blog.csdn.net/sinat_35512245/article/details/79668363

 sklearn之样本生成 make_classification,make_circles和make_moons

 常用算法 的基本sklearn命令: Sklearn包含的常用算法的调用

原文地址:https://www.cnblogs.com/andylhc/p/10314273.html