天天看點

pytorch 文本情感分類和命名實體識别NER中LSTM輸出的差別

文本情感分類:

文本情感分類采用LSTM的最後一層輸出

比如雙層的LSTM,使用正向的最後一層和反向的最後一層進行拼接

def forward(self,input):
        '''
        :param input: 
        :return: 
        '''
        input_embeded = self.embedding(input)    #[batch_size,seq_len,200]

        output,(h_n,c_n) = self.lstm(input_embeded)
        out = torch.cat(h_n[-1,:,:],h_n[-2,:,:],dim=-1) #拼接正向最後一個輸出和反向最後一個輸出

        #進行全連接配接
        out_fc1 = self.fc1(out)
        #進行relu
        out_fc1_relu = F.relu(out_fc1)
        #全連接配接
        out = self.fc2(out_fc1_relu)
        return  F.log_softmax(out,dim=-1)
      

  命名實體識别NER:

實體識别需要LSTM的output的全部輸出。

如果有CRF層,則将輸出全部給CRF層。

def forward(self, words,emdlabel,speechtag, labels, seq_lengths):

        output, _ = self.bilstm(words,emdlabel,speechtag, seq_lengths)
        output = self.logistic(output)
        pre_score = self.crf(output)
        label_score = self.crf._score_sentence(output, labels)
        return (pre_score - label_score).mean(), None

    def predict(self, word, emdlabel,speechtag,seq_lengths):
        lstm_out, _ = self.bilstm(word, emdlabel,speechtag, seq_lengths)
        out = self.logistic(lstm_out)
        return self.crf.viterbi_decode(out)
      

  

多思考也是一種努力,做出正确的分析和選擇,因為我們的時間和精力都有限,是以把時間花在更有價值的地方。

繼續閱讀