部分非負矩陣分解論文的總結,在做相關工作的童鞋的可以互相交流下~!
Guan N, Tao D, Luo Z, et al. Online non-negative matrix factorization with robust stochastic approximation[J]. IEEE Transactions on Neural Networks & Learning Systems, 2012, 23(7):1087.
Motivation:
由于NMF的分解過程需要将所有的資料集放在記憶體中,不适用于資料流的處理。該論文提出了一種高效的線上rsa-nmf算法,近似更新結果。
創新:
線上增量更新,對于l1-regularized and l2-regularized 也做了擴充。
理論性較強。實驗:人臉識别、圖像标注
Chen Y, Zhang H, Wu J, et al. Modeling Emerging, Evolving and Fading Topics Using Dynamic Soft Orthogonal NMF with Sparse Representation[C]// IEEE International Conference on Data Mining. IEEE, 2016:61-70.
NMF類似于LSI,可以探測文本當中潛在的話題,為了動态捕獲和跟蹤這些潛在的話題,此論文提出一種基于軟正交限制(Soft Orthogonal)的矩陣分解方法,來動态模拟話題的emerging/evolving/fading過程。

論文confused me 的地方:
1.為什麼正交限制能保證分解的結果可以準确地模拟話題的變遷?為什麼加了軟正交限制後topic的F1值會有提升?
思考後自己解答:
加入限制後,保證分解的資料更偏向于你限制的目标。聚類來看的話,距離更近。
2.論文用20newsgroup做實驗,micro-averaged F1作為評測名額,性能有所提升。文章其實用的是聚類的方法,groundtruth是label過的标簽,可是20news資料集并沒有分了100類,怎麼做的實驗?
3.矩陣分解的output是U,和V,怎麼模拟出現和消亡?
這是一篇B的論文,與此論文相似的是下面的這一篇很經典的paper
Vaca C K, Mantrach A, Jaimes A, et al. A time-based collective factorization for topic discovery and monitoring in news[C]// International Conference on World Wide Web. 2014:527-538.
這篇論文的貢獻在以下幾點:
1.提出了一個聯合矩陣的模型,以及求解方法;論文做了一個假設:上一個time-slot的資料對于下一個時間段的資料是具有影響的,進而建立了聯合矩陣的模型即,用上一個時間段的資料去預測下一個時間段的資料。
2.加入了一個時間片狀态矩陣M模拟話題的強度,通過強度的矩陣來表現話題的演化過程。非常巧妙。
3.給出了相關理論證明和源其代碼TopicDiscoveryJPP
将模型應用,通過比較狀态矩陣表現追蹤的過程,這點不太明白。