zoukankan      html  css  js  c++  java
  • 注意力机制的命名实体识别

    一、原有模型的架构

      biLSTM + CRF

    二、对原有模型加入注意力机制

      LSTM输出层加入注意力,参考文章:《Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification》,该文章是用于文本实体关系分类的,其思想借用到本文

      细节:

        1)作者将前向和后向LSTM得到的特征,不是做拼接操作,而是元素点积

                      

        2)对该层结果加入注意力

                    

        3)获得句子的整体表示

                      

        4)最后放入分类器中,用于分类

    三、流程图

     四、移植到命名实体识别中

       未完待续

  • 相关阅读:
    项目工作总结 (转)
    mysql-笔记 操作语句
    QTP自动化测试-excel sheet页数量过多--但是不能在qtp里被识别
    mysql-笔记 定义语句
    HDU
    CodeForces
    CodeForces
    CodeForces
    CodeForces
    CodeForces
  • 原文地址:https://www.cnblogs.com/demo-deng/p/10139270.html
Copyright © 2011-2022 走看看