zoukankan      html  css  js  c++  java
  • 训练loss不下降原因集合


    原文:https://blog.csdn.net/jacke121/article/details/79874555

    train loss 不断下降,test loss不断下降,说明网络仍在学习;

    train loss 不断下降,test loss趋于不变,说明网络过拟合;

    train loss 趋于不变,test loss不断下降,说明数据集100%有问题;

    train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或改变批量数目;  (batch=50, lr=0.001改成100和0.0001)

    train loss 不断上升,test loss不断上升,说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题。

    DEBUG---https://blog.csdn.net/u010848594/article/details/80576119

    神经网络具有两大能力:一、学习能力,指在训练集上精度。二、泛化能力,指在测试集上精度。

    对于一个大型神经网络在一个大数据集上跑,LOSS持续不降,第一步先减小数据量,比方说只在单张图片上跑,使用小epochsize,观察每次LOSS下降情况,此时如果LOSS还是不下降说明网络没有学习能力,应该调整模型,一般是先把网络规模缩小,因为任何一个网络都会有学习能力,然而此时你的网络没有学习能力,则一定是你的模型有地方出错,而神经网络又是个黑盒,你只能摘除一部分网络,以排除“坏的”部分。此时网络的规模小了,又在一个相对较小的数据集上跑,必然会有个很好的学习能力。此时可以不断增加网络部件,来提高学习能力。接下来是在保证网络具有学习能力的基础上进行的,是使得网络具有泛化能力,可以通过扩大网络规模,与此同时增大数据量,可以使得网络具有很好的泛化能力。


    ---------------------

  • 相关阅读:
    sublime中node测试环境
    常用的win dos命令
    html area图片热点
    Git常用指令整理(Git Cheat Sheet)
    Java研发技术学习路线
    编程+工具基础教程|网站整理
    廖雪峰 Git 教程 + Git-Cheat-Sheet 学习总结
    现成的HTML5框架
    记录下自己学习的点滴-开始写博客
    linux查看日志文件
  • 原文地址:https://www.cnblogs.com/datou-swag/p/10888459.html
Copyright © 2011-2022 走看看