文章地址:https://zhuanlan.zhihu.com/p/94359189
笔记:
模型size=1/7;
推理耗时=1/9;
性能会轻微损失;GLUE下降3个点(BERT-PKD,DistilBERT下降7/8个点);
三个loss:embedding loss(输入,mes),transformer loss(每隔几个,attention和hidden states,两部分mse),prediction loss(根据任务定制,通常是softmax交叉熵)
也可以二阶段:General/Domain-specific Learning,Task-specific Learning
论文地址: https://arxiv.org/abs/1909.10351
代码地址:https://github.com/huawei-noah/Pretrained-Language-Model/tree/master/TinyBERT
一些讨论:https://github.com/huawei-noah/Pretrained-Language-Model/issues