文本情感分類:
文本情感分類采用LSTM的最後一層輸出
比如雙層的LSTM,使用正向的最後一層和反向的最後一層進行拼接
def forward(self,input):
'''
:param input:
:return:
'''
input_embeded = self.embedding(input) #[batch_size,seq_len,200]
output,(h_n,c_n) = self.lstm(input_embeded)
out = torch.cat(h_n[-1,:,:],h_n[-2,:,:],dim=-1) #拼接正向最後一個輸出和反向最後一個輸出
#進行全連接配接
out_fc1 = self.fc1(out)
#進行relu
out_fc1_relu = F.relu(out_fc1)
#全連接配接
out = self.fc2(out_fc1_relu)
return F.log_softmax(out,dim=-1)
命名實體識别NER:
實體識别需要LSTM的output的全部輸出。
如果有CRF層,則将輸出全部給CRF層。
def forward(self, words,emdlabel,speechtag, labels, seq_lengths):
output, _ = self.bilstm(words,emdlabel,speechtag, seq_lengths)
output = self.logistic(output)
pre_score = self.crf(output)
label_score = self.crf._score_sentence(output, labels)
return (pre_score - label_score).mean(), None
def predict(self, word, emdlabel,speechtag,seq_lengths):
lstm_out, _ = self.bilstm(word, emdlabel,speechtag, seq_lengths)
out = self.logistic(lstm_out)
return self.crf.viterbi_decode(out)
多思考也是一種努力,做出正确的分析和選擇,因為我們的時間和精力都有限,是以把時間花在更有價值的地方。