1、sequence to sequence
https://zhuanlan.zhihu.com/p/27608348
最基础的Seq2Seq模型包含了三个部分,即Encoder、Decoder以及连接两者的中间状态向量,Encoder通过学习输入,将其编码成一个固定大小的状态向量S,继而将S传给Decoder,Decoder再通过对状态向量S的学习来进行输出。
2 、注意力机制(attention mechanism)(由sequence to sequence。encoder-decoder机制演变而来)
https://lilianweng.github.io/lil-log/2018/06/24/attention-attention.html
https://blog.csdn.net/tg229dvt5i93mxaq5a6u/article/details/78422216 **********
3、Pointer network(attention演变而来)