zoukankan      html  css  js  c++  java
  • Occlusion Aware Facial Expression Recognition Using CNN With Attention Mechanism(2019 TIP)

    为什么有这篇文章(motivation)?

    作者认为人脸不不同的region对FER(人脸表情识别)的贡献是不同的,所以作者把人脸裁剪为patch的形式(利用关键点得到24个patch),计算每个patch对FER的贡献度(利用attention)。但是local patch可能会漏掉一些有用的信息,所以作者提出了global ACNN,对local ACNN获得的信息作为补充。

    怎么做?(仅记载local patch部分,global与local操作一样)

     将local patch中的512x6x6的feature map转换为一个unweighted的特征向量

     表示第i个patch的没有被遮挡的程度,值越大,说明该patch没有被遮挡,表示Attention Net操作, consisting a pooling operation, one convolution

    operation, two inner productions, and a sigmoid activation.

     表示每个loacl patch带有权重的feature map.

    文中有一句:Through the end-to-end training of the overall pACNN, these PG-Units can automatically learn low weights for the occluded parts and high weights
    for the unblocked and discriminative parts.

    其中automatically learn = adaptive learning指的是通过最后的softmax来自适应的学习权重。(个人理解,如有错误,请指正!!!)

     总结:

    1. 本文用的是local patch+ global相结合的方式,并且对local 和global都使用attention对其feature map的向量加权。

    2. 但是文章中的Attention net为啥就能对每个local patch学到的权重不一样呢?

    答:是因为每一个的local patch的feature map是不同的,所以经过Attention net(每个local pach经过的Attention net的设计模块都是一样的哦)的之后得到不同的权值(权值为标量)【个人理解】

    3. 单独考虑local patch对FER的贡献度,没有考虑local patch之间的correaltion对FER的影响。比如人微笑的时候,眉毛,眼睛,嘴巴都呈现弯曲的状态。

  • 相关阅读:
    java.lang.NoClassDefFoundError: org/apache/poi/ss/formula/udf/UDFFinder
    IntelliJ使用指南—— 深入了解IntelliJ的Web部署逻辑
    javascript深入理解js闭包
    git commit -F时用到的commit.log模板
    github上需要生成密钥对:ssh key
    windows和linux字体库位置
    .vimrc配置文件
    iw交叉编译
    libnl和libopenssl,hostapd交叉编译
    linux中断
  • 原文地址:https://www.cnblogs.com/spore/p/15540256.html
Copyright © 2011-2022 走看看