BiLstm原理

Lstm这里就不说了,直接说Bilstm。

前向的LSTM与后向的LSTM结合成BiLSTM。比如,我们对“我爱中国”这句话进行编码,模型如图所示。

前向的依次输入“我”,“爱”,“中国”得到三个向量{}。后向的依次输入“中国”,“爱”,“我”得到三个向量{}。最后将前向和后向的隐向量进行拼接得到{[], [], []},即{}。

对于情感分类任务来说,我们采用的句子的表示往往是[]。因为其包含了前向与后向的所有信息,如下图所示。

 

原文地址:https://www.cnblogs.com/tsdblogs/p/10472888.html