天天看點

卷積神經網絡特征可視化存在的難點是什麼?

作者:哥廷根數學學派

1)對于可視化方法,仍存在噪聲、穩定性、解釋能力有限等問題。

通過對多種可視化方法的實驗比較發現,多數可視化方法生成的熱力圖含有一定的噪聲,噪聲産生的原因仍沒有權威統一的解釋。同時,面對不同圖像時的可視化效果不盡相同,有些圖像可能直接導緻可視化方法的失效,而失效的原因尚不清楚,仍有待進一步的探究。此外,面對複雜背景條件的圖像、多目标場景、小目标圖像等,受限于模型本身在面對這些情形時的性能限制,可視化方法的解釋效果并不一定好。未來可能的研究趨勢是将可視化方法與其他解釋方法的結合,從不同側面不同角度解釋模型,進而緩解單一可視化方法解釋效果受限的問題。

2)對于可視化效果的評估,仍欠缺标準統一的評估方法。

目前很難找到适用于大多數可視化方法的評估标準,原因在于許多方法的目标并不相同,也即每種方法對“可解釋性”的了解并不相同,導緻各種可視化方法的解釋結果差别較大。同時,很多可視化方法自身同樣缺乏清晰明确的數學與邏輯機理,導緻結果難以量化比較。如果可以從“可解釋性”的概念出發,統一數個可解釋性的标準,那麼對于可視化結果的評估也就有了依據。同時,還可以根據可視化方法産生的熱力圖的特點進行分類評價,每類熱力圖使用與之适應的評價标準,提升其側重解釋某方面的能力。

3)對于可視化的對象,細粒度的識别模型難以可視化解釋。可視化方法多應用于對圖像分類、目标定位及場景識别等任務的解釋,能夠實作對多目标圖像中語義級目标的區分。例如,“Cat”和“Dog”雖然同屬動物,但是在語義級上屬于明顯不同的兩種動物。而單獨對于“Cat”這一動物,實作的不同品種貓的細粒度圖像分類,受限于分類網絡自身準确性,可視化方法很難找到用于區分目标的細節特征,此時的解釋效果非常有限,甚至對于不同的目标可視化效果始終相同。與人們的視覺觀察及解釋能力相差較遠。這一問題或許可以通過視覺解釋與語言解釋相結合的途徑來改善解釋效果。對可視化解釋難以描述的細微之處,輔助加以自然語言描述形式的解釋(比如對貓的顔色、貓耳形狀的描述),能夠實作更好的解釋效果。

4)對于可視化解釋的完備性,現有研究中的解釋結果與預測結果無法互相印證。

理論上看,一個完備可靠的解釋可以使使用者從中推理并得到被解釋的預測結果,而目前的可視化方法仍不具備這一能力,僅能從預測結果中得到解釋結果,而無法根據解釋來推斷出模型的預測,即兩者之間的互相印證關系沒有被建立起來。例如,如果可視化方法給出了錯誤的解釋,但這一解釋恰好符合使用者根據預測結果推測的預期解釋,進而使得使用者相信了解釋的可靠性,這将對其形成誤導。此時,若能根據解釋結果推斷預測結果,發現推斷出的預測結果和實際預測結果不相符合,則可通過進一步分析發現其中存在的問題,進而提升使用者對可視化方法的信任。

相關的文章參考

幾種信号降噪算法(第一部分)

https://www.toutiao.com/article/7190201924820402721/

幾種信号降噪算法(第二部分)

https://www.toutiao.com/article/7190270349236683264/

機械故障診斷及工業工程故障診斷若幹例子(第一篇)

https://www.toutiao.com/article/7193957227231855163/

知乎咨詢:哥廷根數學學派

算法代碼位址,面包多首頁:

https://mbd.pub/o/GeBENHAGEN/work

擅長現代信号處理(改進小波分析系列,改進變分模态分解,改進經驗小波變換,改進辛幾何模态分解等等),改進機器學習,改進深度學習,機械故障診斷,改進時間序列分析(金融信号,心電信号,振動信号等)

卷積神經網絡特征可視化存在的難點是什麼?
卷積神經網絡特征可視化存在的難點是什麼?
卷積神經網絡特征可視化存在的難點是什麼?

繼續閱讀