Caffe的solver参数

Solver.prototxt文件

Solver.prototxt文件

net: "models/bvlc_alexnet/train_val.prototxt" //网络地址
test_iter: 1000 //test_iter是测试时样本的迭代次数,因此测试时 总的数据量=迭代次数(test_iter)*批数量(batch_size)
test_interval: 1000 //测试间隔,每迭代500次就测试一次
base_lr: 0.01 //基础学习率,是所有层的学习率base_lr
lr_policy: "step" //学习率下降策略,让学习率在训练过程中发生变换
gamma: 0.1 //
stepsize: 100000
display: 20
max_iter: 450000
momentum: 0.9
weight_decay: 0.0005
snapshot: 10000 //每迭代10000次就保存一次模型和状态
snapshot_prefix: "models/bvlc_alexnet/caffe_alexnet_train" //caffemodel和
solver_mode: GPU
type:SGD
(1)学习率改变策略
lr_policy可以设置为下面这些值,相应的学习率的计算为:
- fixed:   保持base_lr不变.
- step:    如果设置为step,则还需要设置一个stepsize, 当前学习率=base_lr * gamma ^ (floor(iter / stepsize)), 其中iter表示当前的迭代次数
- exp:    当前学习率=base_lr * gamma ^ iter, iter为当前迭代次数
- inv:   如果设置为inv,还需要设置一个power, 当前学习率=base_lr * (1 + gamma * iter) ^ (- power)
- multistep: 如果设置为multistep,则还需要设置一个stepvalue。这个参数和step很相似,step是均匀等间隔变化,而multistep则是根据stepvalue值变化
- poly:    学习率进行多项式误差, 返回 base_lr (1 - iter/max_iter) ^ (power)
- sigmoid:  学习率进行sigmod衰减,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))
(2)优化方法
type:SGD //默认值,不写type则默认为SGD
type:AdaDelta
type:AdaGrad
type:Adam
type:Nesterov
type:RMSProp
  


  

原文地址:https://www.cnblogs.com/codeDog123/p/7170705.html