使用http://www.cnblogs.com/573177885qq/p/5804863.html中的图片进行训练和测试。
整个流程差不多,fine-tune命令:
./build/tools/caffe train -solver examples/money_test/fine_tune/solver.prototxt -weights models/bvlc_reference_caffenet/bvlc_reference_caffenet.caffemodel
因为是用别人训练好的权重,因此weights必选。 关于命令行解析,参考http://www.cnblogs.com/denny402/p/5076285.html
不知为何,我fine-tune时的准确率一直是0,损失函数最后发散成了loss=-nan,难道迭代参数选的太大?
我将lr减小至0.0001,但还是发散了,难道是我的训练样本太少?
我将lr再次缩小10倍,这次loss没有发散,但明显步伐太小,loss一直没降下来。
估计是网络结构出了问题,accuracy一直是0,loss发散。