在上一篇博文中已經根據具體的執行個體介紹了決策樹:
在這裡附上博文連結(https://blog.csdn.net/jodie123456/article/details/88532344)
下面具體介紹決策樹的剪枝,ID3,C4.5,CART算法。
首先,決策樹學習的步驟有如下步驟:
①特征選擇:特征選擇即我們用哪個特征來劃分空間。我們常用資訊增益、資訊增益比或基尼系數來作為劃分依據。
②決策樹的生成:常用算法有ID3,C4.5,CART
②決策樹的剪枝:常用方法有極小化決策樹整體的損失函數、CART剪枝算法
詳細請見原博文連結
https://blog.csdn.net/u013597931/article/details/79768494