天天看點

Focal Loss 論文閱讀了解

前面還有一篇focal loss 的翻譯,但是來不及翻譯完晚上就要組會了,但是總算是自己也把這篇論文了解完了。下面是PPT的截圖,記錄一下。

Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解

這個是從論文綜述《Learning from Imbalanced Data》裡面的對于資料不均衡的一個定義,我覺得很不錯。

Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解

這張小貓的圖我覺得可以很好地表達難易樣本的定義問題,一目了然。

Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解

Table1是關于RetinaNet和Focal Loss的一些實驗結果。

(a)是在交叉熵的基礎上加上參數a,a=0.5就表示傳統的交叉熵,可以看出當a=0.75的時候效果最好,AP值提升了0.9。

(b)是對比不同的參數γ和a的實驗結果,可以看出随着γ的增加,AP提升比較明顯。

(d)通過和OHEM的對比可以看出最好的Focal Loss比最好的OHEM提高了3.2AP。這裡OHEM1:3表示在通過OHEM得到的minibatch上強制positive和negative樣本的比例為1:3,通過對比可以看出這種強制的操作并沒有提升AP。

(e)加入了運算時間的對比,可以和前面的Figure2結合起來看,速度方面也有優勢!注意這裡RetinaNet-101-800的AP是37.8,當把訓練時間擴大1.5倍同時采用scale jitter,AP可以提高到39.1,這就是全文和table2中的最高的39.1AP的由來。

Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解
Focal Loss 論文閱讀了解

參考了很多部落格,寫的都很詳細,尤其是這篇

平安水過一次組會,好險好險。

繼續閱讀