k 折交叉驗證(k-fold cross validation)
靜态的「留出法」對資料的劃分方式比較敏感,有可能不同的劃分方式得到了不同的模型。「k 折交叉驗證」是一種動态驗證的方式,這種方式可以降低資料劃分帶來的影響。具體步驟如下:
将資料集分為訓練集和測試集,将測試集放在一邊
将訓練集分為 k 份
每次使用 k 份中的 1 份作為驗證集,其他全部作為訓練集。
通過 k 次訓練後,我們得到了 k 個不同的模型。
評估 k 個模型的效果,從中挑選效果最好的超參數
使用最優的超參數,然後将 k 份資料全部作為訓練集重新訓練模型,得到最終模型。

k 一般取 10 資料量小的時候,k 可以設大一點,這樣訓練集占整體比例就比較大,不過同時訓練的模型個數也增多。 資料量大的時候,k 可以設小一點。