zoukankan      html  css  js  c++  java
  • Bert模型精简方法

    BERT六大瘦身大法
    网络剪枝:包括从模型中删除一部分不太重要的权重从而产生稀疏的权重矩阵,或者直接去掉与注意力头相对应的整个矩阵等方法来实现模型的剪枝,还有一些模型通过正则化方法实现剪枝。
     
    低秩分解:即将原来大的权重矩阵分解多个低秩的小矩阵从而减少了运算量。这种方法既可以用于标记嵌入以节省磁盘内存,也可以用到前馈层或自注意力层的参数矩阵中以加快模型训练速度。
     
    知识蒸馏:通过引入教师网络用以诱导学生网络的训练,实现知识迁移。教师网络拥有复杂的结构用以训练出推理性能优越的概率分布,是把概率分布这部分精华从复杂结构中“蒸馏”出来,再用其指导精简的学生网络的训练,从而实现模型压缩,即所谓知识蒸馏。另外,从BERT模型中蒸馏出不同的网络结构如LSTMs等,以及对教师网络结构的进一步挖掘都有望实现知识蒸馏这一方法的不断优化。
     
    参数共享:ALBERT是谷歌提出的BERT改进版,其改进之一就是参数共享。全连接层与自注意力层都实现参数共享,即共享了编码器中的所有参数,这样一来,不仅减少了参数量还提升了训练速度。
     
    量化:即通过减少每个参数所需的比特数来压缩原始网络,可以显著降低内存。
     
    预训练和Downstream:模型压缩可以在模型训练时进行也可以在模型训练好之后进行。后期压缩使得训练更快,通常不需要训练数据,而训练期间压缩可以保持更高的准确性并导致更高的压缩率。
     
    论文列表和结果对比
    对比所有论文内容后,我们也对以下指标进行了对比:参数减少,推理加速和准确性。
    对比后很容易得出赢家:我会选择ALBERT,DistilBERT,MobileBERT,Q-BERT,LayerDrop,RPP
  • 相关阅读:
    3.2 Program Encodings 程序编码
    Describe your home
    Building vs solution in command line
    找到适合自己的人生轨迹 Angkor:
    每个月总有那么几天不想学习,不想写代码 Angkor:
    Linux下的Memcache安装
    敏捷开发之 12条敏捷原则
    为什么要用NIO
    memcached server LRU 深入分析
    Linux 脚本编写基础
  • 原文地址:https://www.cnblogs.com/demo-deng/p/12714154.html
Copyright © 2011-2022 走看看