zoukankan      html  css  js  c++  java
  • CV baseline之GoogLeNet v3

    作业内容

    1:文字回答:GoogLeNet-V3中,特征图分辨率从35*35降到17*17,采用的是Inception(ABCDE)中的哪一个? 对应论文中哪一幅图?该结构最大的特点是什么?

    B

     是一个高效的特征图分辨率下降方式

    2:文字回答:Label Smoothing 对模型训练有什么积极影响? 其中的epsilon参数作用是什么?

    one-hot 带来的问题:

      对于损失函数,我们需要用预测概率去拟合真实概率,而拟合one-hot的真实概率函数会带来两个问题:

    1)无法保证模型的泛化能力,容易造成过拟合;

    2) 全概率和0概率鼓励所属类别和其他类别之间的差距尽可能加大,而由梯度有界可知,这种情况很难adapt。会造成模型过于相信预测的类别。

    把One-hot中概率为1的那一项进行衰减,避免过度自信,衰减的那部分confience平均分到每一个类别中。

    假设y为当前样本one-hot后的标签,则标签平滑公式可表述为:

    epsilon参数为平滑因子,由参数epsilon控制相对权重,控制被分到非标签的概率的大小

    3:文字回答:卷积分解有哪两种形式? 分别在Inception(ABCDE)中何处使用?

    AB中使用了大卷积核分成小卷积核堆叠;CDE中用了非对称卷积形式

    4:文字回答:读完该论文,对你的启发点有哪些?

    1)   CNN的分类是CNN视觉任务的基础:在分类上表现好的CNN,通常在其它视觉任务中也表现良好

    2)Google很多论文的最优结果均是通过大量实验得出,一般玩家难以复现

    3)非对称卷积分解在分辨率为12-20的特征图上效果较好,且用1x7和7x1进行特征提取

    4)在网络训练初期,辅助分类层的加入并没有加快网络收敛,在训练后期,才加快网络的收敛

    5)移除两个辅助分类层中的第一个,并不影响网络性能

    6)标签平滑参数设置,让非标签的概率保持在10-4左右(参数可改一下)

    5:代码实现:从网上找一张图片,执行GoogLeNet-V3,观察top5输出的类别,并将输出结果截图进行打卡。

    6:文字:本篇论文的学习笔记及总结

  • 相关阅读:
    docker入门
    IAR屏蔽警告的方法
    在MDK 中忽略(suppress) 某一个警告
    stm32 F40x CCM数据区的使用
    如何理解Stand SPI Dual SPI 和Quad SPI??
    stm32F1在sram中调试运行代码
    stm32低功耗的一点总结
    C语言中__attribute__ ((at())绝对定位的应用
    系统栈和任务栈——freertos
    软件模拟spi的注意事项
  • 原文地址:https://www.cnblogs.com/sariel-sakura/p/13490313.html
Copyright © 2011-2022 走看看