zoukankan      html  css  js  c++  java
  • 论文阅读 | Lite Transformer with Long-Short Range Attention

    论文:Lite Transformer with Long-Short Range Attention by Wu, Liu et al.

    [ code in github ]

    LSRA特点:两组head,其中一组头部专注于局部上下文建模(通过卷积),而另一组头部专注于长距离关系建模(通过注意)。

    传统的self-attention被认为是有冗余的,经验表明,句子中的本地关系被过于关注了。这可以通过标准卷积更加有效的进行建模。同样的结论在On the Relationship between Self-Attention and Convolutional Layers也有,同时,这个精简可以在某些情况下帮助提升模型的能力,但它不适用于较轻量级的应用。

    Long-Short Range Attention (LSRA)通过将输入沿通道维度分成两部分,并将这两个部分分别提供给两个模块,从而提高了计算效率:全局提取器使用标准的自注意力,局部提取器使用轻量级的深度卷积。作者给出了一个2.5×简化的模型的总体计算量,使它适合移动端的配置。在机器翻译、抽象摘要和语言建模任务上有提高。

    配合剪枝和量化,模型大小压缩到达了18.2x。

    从图上看对比还是非常明显的。 

    得到输入的embedding后,分为两个分支,一个是attention(在原始的transformer 上,通道维度减少了一半。另一个分支是卷积,通过滑动窗口,对角线组可以很容易地被模块覆盖。最后把两个分支的结果stack后交给FFN。

    实验结果

    论文用到的量化和剪枝方法分别参考:

    1. 量化:

    K-means (Han et al., 2016),

    Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding.

    2. 剪枝:

    sensitivity of each layer (Han et al., 2015a),Learning both weights and connections for efficient neural network.

    这两个方法的一作也是本文的作者之一。

     
  • 相关阅读:
    美团数据治理参考
    Ignite(三): Ignite VS Spark
    Ignite(二): 架构及工具
    Sqlserver 计算两坐标距离函数
    Ignite(一): 概述
    IMDG
    锂电池不一致而产生危害
    平均数_中位数_众数在SqlServer实现
    怎样给孩子取一个好名字?搜狗“有名堂”大数据支招
    eclipse导入外部jar包
  • 原文地址:https://www.cnblogs.com/shona/p/12980079.html
Copyright © 2011-2022 走看看