論文位址:Multi-Path Feature Fusion Network for Saliency Detection
摘要
在本文中,作者利用多路徑特征融合模型進行顯着性檢測。 所提出的模型是一個完全卷積的網絡,其中原始圖像作為輸入,而顯着圖作為輸出。該結構具有捕獲低級視覺特征并生成保留邊界的顯着性圖的能力。此外,在作者的模型中提出了耦合結構子產品,這有助于探索顯着對象的進階語義特性。
方法
基于已有算法不能對邊界進行清晰定位的情況,作者提出了耦合結構子產品coupled structure module (namely CSM) 來reuse卷積特征,該結構可以提高顯着性檢測的準确性并生成突出顯示的顯着性。所提出的顯着性模型也基于完全卷積神經網絡,原始圖像作為輸入,整個顯着圖作為輸出。
主要貢獻如下:
- 提出了一個多路徑特征融合網絡,即MPFFNet,它使用來自不同路徑的卷積特征來生成高品質的鹽度圖。 MPFFNet可以通過組合多級特征來提取顯着對象的固有屬性。
- 提出了一個耦合結構子產品,以提高預測目标物體的準确性。 受益于此子產品,顯着檢測的性能得到了極大的提高,以實作更好的顯着對象定位。
- 算法可以均勻地突出顯示顯着對象,并平滑顯着對象邊界中的顯着性值。
為了提高顯着性檢測的準确性,作者在網絡最後的合并階段之後添加了三個路徑以建構空間金字塔結構。他們可以表示出每個branch的高階特征圖。作者提出的CSM如下圖所示,耦合結構由兩個互補和對稱元件組成。每個元件包括一個3×3卷積層和一個1×1卷積層。 在每個卷積層之後也使用非線性變換(ReLU)。此外,為了擴大接收範圍以覆寫整個對象,作者使用膨脹卷積[21]來增加濾波器的大小。耦合結構子產品是空間敏感的,并且具有提取進階語義特征的能力。實驗結果表明,CSM可以顯着提高顯着性檢測的準确性。
![](https://img.laitimes.com/img/9ZDMuAjOiMmIsIjOiQnIsICM38FdsYkRGZkRG9lcvx2bjxiNx8VZ6l2cs0TPR9kejpWT3FlaNBDOsJGcohVYsR2MMBjVtJWd0ckW65UbM5WOHJWa5kHT20ESjBjUIF2X0hXZ0xCMx81dvRWYoNHLrdEZwZ1Rh5WNXp1bwNjW1ZUba9VZwlHdssmch1mclRXY39CXldWYtlWPzNXZj9mcw1ycz9WL49zZuBnLwcTN5EzNzEjM5IDMxkTMwIzLc52YucWbp5GZzNmLn9Gbi1yZtl2Lc9CX6MHc0RHaiojIsJye.png)