关于模型复杂度的一个想法

我们直观理解,如果在训练中,我们画出训练error和valid error,当发现overfiting了,在样本

足够的情况下overfiting是不是可以说明模型复杂度大于样本空间,这样我们是不是可以减少模型

的参数量,或者feature map,是不是可以给模型压缩做一个参考。同样,如果训练迭代很多,模型

训练error一直很大,是不是有一种可能就是模型复杂度不够。

原文地址:https://www.cnblogs.com/YouXiangLiThon/p/7502593.html