N种attention

https://www.cnblogs.com/BlueBlueSea/p/13137757.html,是我这篇文章的一个深入和展开吧

1.总结 

转自:https://zhuanlan.zhihu.com/p/91839581

2.CNN/LSTM+ATT

对cnn结合att的过程不太明白。 

3.适用任务

https://zhuanlan.zhihu.com/p/35739040

  • 机器翻译、摘要生成、图文互搜属于seq2seq任务,需要对两段内容进行对齐,
  • 文本蕴含用到前提和假设两段文本,阅读理解也用到了文章和问题两段文本,
  • 文本分类、序列标注和关系抽取属于单文本Attention的做法。

原文地址:https://www.cnblogs.com/BlueBlueSea/p/13140258.html