天天看點

一張圖深入的了解FP/FN/Precision/Recall

一張圖深入的了解FP/FN/Precision/Recall

由于圖檔較大,建議右鍵打開新的視窗以便于閱讀!

  • FP(False Positive)表示錯誤的正例即錯誤的将樣本中的負例識别為正例,如右圖3、4行紅色正方形所示;
  • FN(False Negative)表示錯誤的負例即錯誤的将樣本中的正例識别為負例,如右圖1、2行紅色三角形所示;
  • Precision面向的是檢測後的比例,在模型檢測後(右圖),檢測到的所有正例結果包括正确的正例和錯誤的正例,相對于原始樣本來說, 無論是正确的正例還是錯誤的正例,其檢測結果均為正例,故檢測結果中,正例的總數為(TP+FP), 那麼在這些正例中,有多少是正确的正例呢?答案就是TP/(TP+FP);FP越小,則Precision越大,而FP即為誤報為正例數量; 是以,Precision反映的是樣本中正例誤報的情況。
  • Recall面向的是檢測前的比例,在原始樣本中(左圖),所有的正例被模型真正檢測出來的有多少?TP即為檢測出來的正例個數, 那麼原始樣本中所有的正例個數是多少呢?答案是檢測出來的正例個數加上未檢測出來的正例個數; 而未檢測出來的正例個數就是原本是正例然而被模型檢測為負例,如右圖1、2行的紅色三角所示,即為錯誤的負例(FP); 故Recall=TP/(TP+FN);FN越小,則Recall越大,而FN即為漏檢為正例的數量;是以Recall反映的是樣本中正例漏檢的情況。