zoukankan      html  css  js  c++  java
  • TSN网络论文阅读综述——2020.2.4

    今日学习内容概览:

        今天主要阅读了一篇论文Temporal Segment Networks:Towards Good Practices for Deep Action Recognition(时间片段网络面向深度动作识别的良好实践),这篇ECCV2016的文章主要提出了TSN(temporal segment network)结构,被用来做视频的动作识别。TSN可以看做是双流(Two stream)系列的改进(双流网络——论文链接)。改论文主要解决了以下两个问题:

    1. 如何对长时间视频进行行为判断。
    2. 处理数据量少的问题,如何防止过拟合现象。
          TSN网络结构如下:

      时间段网络:将一个输入视频分为K个段,并从每个段中随机选择一个简短的代码段。 不同片段的类别分数由分段共识函数融合,以产生分段共识,这是视频级别的预测。 然后将来自所有模态的预测进行融合以产生最终预测。 所有摘录上的ConvNets共享参数。

        这里 是一个片段序列。从其对应的片段中随机采样每个片段是表示带有参数W的ConvNet的函数,该函数在短代码段Tk上运行并为所有类别产生类别分数。分段共识函数G组合了多个简短摘要的输出,以获得其中的类假设的共识。基于此共识,预测函数H预测整个视频的每个动作类别的概率。在这里,我们选择H的广泛使用的Softmax函数。结合标准的分类交叉熵损失,关于分段共识的最终损失函数形成为

    防止过拟合措施
        为了防止过拟合,作者采取了多个措施:

    1. 交叉预训练。以图像为输入的spatial ConvNets网络可以用在imagenet数据集上预训练的网络来初始化。以光流作为输入的temporal stream ConvNets网络就通过交叉预训练进行初始化。交叉预训练其实是将图像领域的预训练模型迁移到光流领域。
    2. partial BN,通过冻结除第一个BN层以外的所有BN层的均值和方差。

    网络结果测试

    1. 不同训练策略下双流网络的效果对比

    2. 关于网络的几种不同输入形式下two stream convnets的效果对比,数据集是UCF101

    3. 关于前面TSN公式中的不同g函数对实验结果的影响

    4. 在UCF101数据集(split 1)上探索不同的非常深的ConvNet架构

    5. 总结本文的一些基于双流网络的改进效果

    6. 和其他视频行为识别算法在HMDB51和UCF101数据集上的对比

    网络可视化
        
    使用DeepDraw[42]进行动作识别的ConvNet模型的可视化。我们比较了三种情况:(1)没有预训练;
    (2)pre-train;(3)时间段网络。对于空间卷积神经网络,我们绘制了三个生成的可视化彩色图像。
    对于时间对流,我们用灰度绘制x(左)和y(右)方向的流图。注意,所有这些图像都是由纯随机像素生成的。

  • 相关阅读:
    第二周作业
    第二次作业
    第一周作业
    我的2018年终总结
    css总结
    python中使用selenium错误-Firefox浏览器
    postman中 form-data、x-www-form-urlencoded、raw、binary的区别
    谷歌地图API(一)
    2014新年开题
    图书馆管理系统-需求分析
  • 原文地址:https://www.cnblogs.com/somedayLi/p/12261644.html
Copyright © 2011-2022 走看看