Tensorflow2.0笔记08——学习率策略

Tensorflow2.0笔记

本博客为Tensorflow2.0学习笔记,感谢北京大学微电子学院曹建老师

2. 学习率策略

2.1 指数衰减

TensorFlow API: tf.keras.optimizers.schedules.ExponentialDecay

image-20210622084256316

​ 其中,learning_rate是初始学习率,decay_rate是衰减率,global_step表示从0到当前的训练次数,decay_steps用来控制衰减速度。

​ 指数衰减学习率是先使用较大的学习率来快速得到一个较优的解,然后随着迭代的继续,逐步减小学习率,使得模型在训练后期 更加稳定。指数型学习率衰减法是最常用的衰减方法,在大量模型中都广泛使用。

2.2 分段常数衰减

TensorFlow API: tf.optimizers.schedules.PiecewiseConstantDecay

image-20210622084612698

​ 分段常数衰减可以让调试人员针对不同任务设置不同的学习率,进行精细调参,在任意步长后下降 任意数值的learning rate,要求调试人员对模型和数据集有深刻认识。

原文地址:https://www.cnblogs.com/wind-and-sky/p/14919792.html