1原理圖
![](https://img.laitimes.com/img/__Qf2AjLwojIjJCLyojI0JCLiAzNvwVZ2x2bzNXak9CX90TQNNkRrFlQKBTSvwFbslmZvwFMwQzLcVmepNHdu9mZvwFVywUNMZTY18CX052bm9CX9MGVPh3aq10dRRVT3V1MMBjVtJWd0ckW65UbM5WOHJWa5kHT20ESjBjUIF2LcRHelR3LcJzLctmch1mclRXY39jMzkzNzIDMxIzMwUDM4EDMy8CX0Vmbu4GZzNmLn9Gbi1yZtl2Lc9CX6MHc0RHaiojIsJye.jpg)
本文重點:
文本的輸入的channel通常是不同方式的embedding方式(比如 word2vec或Glove),實踐中也有利用靜态詞向量和fine-tunning詞向量作為不同channel的做法
文章使用了6個卷積核對原詞向量矩陣進行卷積,(後續利用CNN處理文本都是延續了這一方式,以這一種卷積方式進行各種變化操作),TextCNN卷積用的是一維卷積。一維卷積帶來的問題是需要設計通過不同 filter_size 的 filter 擷取不同寬度的視野
池化,對相同卷積核産生的特征圖進行連接配接(主要的工作在于将feature map對齊)
再進行softmax輸出類别。
核心點在于可以捕捉局部相關性,具體到文本分類任務中可以利用CNN來提取句子中類似 n-gram 的關鍵資訊。