-1
我的参数
base_lr: 0.04
max_iter: 170000
lr_policy: "poly"
batch_size = 8
iter_size =16
这是
一些训练过程中的样子到现在为止:
这里的损失似乎停滞,是有问题这里还是这个正常?
请注意,lr_policy步骤不会每n次迭代降低学习速率,但只能进行一次。要做好几个步骤,你需要使用miltistep政策 – Shai
我试着将我的问题发送给caffe团队,但回复率太低,要么问题没有得到答案,要么他们太迟得到答案。 – Ryan