zoukankan      html  css  js  c++  java
  • 记一个在训练模型过程中自己给自己挖的坑

      根据一个图像拼接和融合的需求,训练一个模型,输入为一组图像,输出为一张图像,输入数据和ground truth的像素值都归一化到[-1, 1]

      我当时使用了UNet结构,卷积和反卷积都单独封装了一个函数,方便调用,在函数内部,卷积都会默认接一relu激活层

      训练结果出来后,发现内容基本都能和ground truth对应上,但是颜色很怪异,特别接近灰色,如下

      然后寻找原因许久未果,陷入纠结。第二天开始思考修改网络,猛然发现,我希望最后一层的输出为[-1, 1],但最后一层卷积默认接了relu激活层,因此[-1, 0]范围的数值全被剔除掉了。

      感觉自己掉进了自己挖的坑,还TM差点没爬出来。

      以此博客记录此坑并对日后提供经验!

  • 相关阅读:
    Exp9 Web安全基础
    EXP8 Web基础
    Exp7 网络欺诈防范
    Exp6 信息搜集与漏洞扫描
    Exp5 MSF基础应用
    Exp4 恶意代码分析
    Exp3 免杀原理与实践
    Exp2 后门原理与实践 20154317
    正则表达Regex替换标签
    正则表达式
  • 原文地址:https://www.cnblogs.com/Peyton-Li/p/9233321.html
Copyright © 2011-2022 走看看