Attention参考 Attention机制参考1(attentionert ransformer) pytorch中bi-gru+attention实现代码参考 参考1-使用Pytorch进行文本分类——BILSTM+ATTENTION 参考2-Pytorch-LSTM+Attention文本分类 Pytorch实现Self-Attention: 参数详解 mutiheadattention的QKV(调用官方接口) PyTorch快餐代码教程2019 (2) - Multi-Head Attention