天天看點

24. 偏差和方差之間的權衡

24 偏差和方差之間的權衡

你可能聽說過“偏差和方差之間的權衡”。在你對大部分學習算法進行修改的時候,有些方法可以減少偏差,但是代價是增加了方差,反之亦然,這就在偏差和方差之間産生了“權衡”。

例如,增加模型的大小(在神經網絡中添加神經元/層,或增加輸入特征),通常可以減少偏差,但可能會增加方差。另外,增加正則化一般會增加偏差,但是可能會減少方差。

在現代,我們往往能夠獲得充足的資料,并且可以使用非常大的神經網絡(深度學習)。是以,這種權衡比較少,并且現在有更多的選擇可以在不增加方差的情況下減少偏差,反之亦然。

例如,你通常可以增加神經網絡的大小,并調整正則化方法去減少偏差,而不會明顯的增加方差,通過增加訓練集,你也可以做到在不影響偏差的情況下減少方差。

如果你選擇了一個比較适合你任務的模型,那麼你可以同時減少偏差和方差,但是選擇适合的架構是非常難的。

在接下來幾章中,我們将讨論處理偏差和方差的其它方法。