zoukankan      html  css  js  c++  java
  • 训练loss不下降原因集合


    原文:https://blog.csdn.net/jacke121/article/details/79874555

    train loss 不断下降,test loss不断下降,说明网络仍在学习;

    train loss 不断下降,test loss趋于不变,说明网络过拟合;

    train loss 趋于不变,test loss不断下降,说明数据集100%有问题;

    train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或改变批量数目;  (batch=50, lr=0.001改成100和0.0001)

    train loss 不断上升,test loss不断上升,说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题。

    DEBUG---https://blog.csdn.net/u010848594/article/details/80576119

    神经网络具有两大能力:一、学习能力,指在训练集上精度。二、泛化能力,指在测试集上精度。

    对于一个大型神经网络在一个大数据集上跑,LOSS持续不降,第一步先减小数据量,比方说只在单张图片上跑,使用小epochsize,观察每次LOSS下降情况,此时如果LOSS还是不下降说明网络没有学习能力,应该调整模型,一般是先把网络规模缩小,因为任何一个网络都会有学习能力,然而此时你的网络没有学习能力,则一定是你的模型有地方出错,而神经网络又是个黑盒,你只能摘除一部分网络,以排除“坏的”部分。此时网络的规模小了,又在一个相对较小的数据集上跑,必然会有个很好的学习能力。此时可以不断增加网络部件,来提高学习能力。接下来是在保证网络具有学习能力的基础上进行的,是使得网络具有泛化能力,可以通过扩大网络规模,与此同时增大数据量,可以使得网络具有很好的泛化能力。


    ---------------------

  • 相关阅读:
    Windows 08 R2_组策略
    Nginx常用配置实例(4)
    Nginx日常维护操作(3)
    Nginx配置文件(2)
    Nginx概述和安装(1)
    Zabbix实战-简易教程--通过公众平台企业号发送短信
    HDFS ZKFC自动切换原理分析
    HDFS ZKFC自动切换原理分析
    DataNode启动优化改进:磁盘检测并行化
    DataNode启动优化改进:磁盘检测并行化
  • 原文地址:https://www.cnblogs.com/datou-swag/p/10888459.html
Copyright © 2011-2022 走看看