AdaBoost分类器笔记

资料来源:1.、https://blog.csdn.net/guyuealian/article/details/70995333

     2、http://freewill.top/2017/01/18/7%EF%BC%886%C%9AAdaBoost/

努力的小目标(SSD行人检测):1、https://blog.csdn.net/linolzhang/article/details/

AdaBoost(自适应提升):使用多个弱分类器组合得到强的分类器。

其基本思想就是:1.现有一批训练样本,给定一些弱分类器类型(不指定分类器的具体形式,只指定分类器的基本形式);

        2.初始给定每个样本点一样的权值,初始先选定几个弱分类器中错误率最小的(如H1)开始训练;

        3.每次训练后,被错误分类的样本点权值增大,正确的权值减小,根据一定规则,

        给这次的分类器一个权值为得到最后的强分类器做准备;

        4.通过更新的权值,选择几个分类器中错误率最小的一个进行接下来的训练(也有可能还是H1);

        5.经过这样的重复操作,最后将所有的带权值的若分类器相加组合得到最终的强分类器

 图片来自:https://kns.cnki.net/kcms/detail/

 图片来自:https://kns.cnki.net/kcms/detail/

AdaBoost算法误差界分析:https://zhuanlan.zhihu.com/p/79167891(讲得很通俗)


 HOG特征提取中,由于局部光照的变化,使得 HOG 特征在计算过程中梯度强度的变化范围较大,因此需要对梯度强度进行归一化

常见的归一化的方法:1、https://davex.pw/2017/10/07/Normalization-and-Regularization/

          2、https://blog.csdn.net/pipisorry/article/details/52247379(不是很懂,谨慎看待) 


 verilog中几种排序方法: 1、https://blog.csdn.net/yanchuan23/article/details/79780605

               2、https://reborn.blog.csdn.net/article/details/80469391

 流水线技术的简单解释:1、https://blog.csdn.net/Times_poem/article/details/52033535

            2、https://blog.csdn.net/zf_suan/article/details/78296070 

原文地址:https://www.cnblogs.com/tianyuzh/p/13953998.html