天天看點

對數損失和交叉熵損失

對數損失和交叉熵損失

從上述的表達式中看,兩者的損失函數本質是一樣的,但是這裡需要注意的是通常情況下,這兩種損失函數所對應的上一層結構不同,log loss經常對應的是Sigmoid函數的輸出,用于二分類問題;而cross-entropy loss經常對應的是Softmax函數的輸出,用于多分類問題。

是以在神經網絡中精彩使用cross-entropy作為評判參數優化的函數,而在二分類的場景下精彩使用log loss作為評判參數優化的函數。

但是其實log loss也可以應用在多分類,這時候就和cross-entropy loss應用在多分類沒有什麼差别了。

log loss function 和 cross-entropy loss function本質上沒有什麼差別,無論是在二分類還是多分類場景下都可以進行應用,隻不過大多數人的應用習慣不同而已。

繼續閱讀