前面還有一篇focal loss 的翻譯,但是來不及翻譯完晚上就要組會了,但是總算是自己也把這篇論文了解完了。下面是PPT的截圖,記錄一下。

這個是從論文綜述《Learning from Imbalanced Data》裡面的對于資料不均衡的一個定義,我覺得很不錯。
這張小貓的圖我覺得可以很好地表達難易樣本的定義問題,一目了然。
Table1是關于RetinaNet和Focal Loss的一些實驗結果。
(a)是在交叉熵的基礎上加上參數a,a=0.5就表示傳統的交叉熵,可以看出當a=0.75的時候效果最好,AP值提升了0.9。
(b)是對比不同的參數γ和a的實驗結果,可以看出随着γ的增加,AP提升比較明顯。
(d)通過和OHEM的對比可以看出最好的Focal Loss比最好的OHEM提高了3.2AP。這裡OHEM1:3表示在通過OHEM得到的minibatch上強制positive和negative樣本的比例為1:3,通過對比可以看出這種強制的操作并沒有提升AP。
(e)加入了運算時間的對比,可以和前面的Figure2結合起來看,速度方面也有優勢!注意這裡RetinaNet-101-800的AP是37.8,當把訓練時間擴大1.5倍同時采用scale jitter,AP可以提高到39.1,這就是全文和table2中的最高的39.1AP的由來。
參考了很多部落格,寫的都很詳細,尤其是這篇
平安水過一次組會,好險好險。