天天看點

決策樹之 GBDT 算法 - 回歸部分

GBDT(Gradient Boosting Decision Tree)是被工業界廣泛使用的機器學習算法之一,它既可以解決回歸問題,又可以應用在分類場景中,該算法由斯坦福統計學教授 Jerome H. Friedman 在 1999 年發表。本文中,我們主要學習 GBDT 的回歸部分。

在學習 GBDT 之前,你需要對

CART AdaBoost

決策樹有所了解,和 AdaBoost 類似,GBDT 也是一種 Boosting 類型的決策樹,即在算法産生的衆多樹中,前一棵樹的錯誤決定了後一棵樹的生成。

我們先從最為簡單的例子開始,一起來學習 GBDT 是如何構造的,然後結合理論知識,對算法的每個細節進行剖析,力求由淺入深的掌握該算法。

我們的極簡資料集由以下 3 條資料構成,使用它們來介紹 GBDT 的原理是再好不過了,假設我們用這些資料來構造一個 GBDT 模型,該模型的功能是:通過身高、顔色喜好、性别這 3 個特征來預測體重,很明顯這是一個回歸問題。

身高(米) 顔色喜好 性别 體重(kg)
1.6 Blue Male 88
Green Female 76
1.5 56

構造 GBDT 決策樹

GBDT 的第一棵樹隻有 1 個葉子節點,該節點為所有樣本的初始預測值,且該值到所有樣本間的 MSE(Mean Squared Error)是最小的。實際上,初始值就是所有樣本的平均值,即 (88+76+56)/3 = 73.3,原因我們在下文會詳細介紹。

接下來,根據預測值,我們算出每個樣本的殘差(Residual),如第一個樣本的殘差為:88 - 73.3 = 14.7,所有樣本的殘差如下:

殘差
14.7
2.7
-17.3

接着,我們以殘差為目标值來建構一棵決策樹,構造方式同 CART 決策樹,這裡你可能會問到為什麼要預測殘差?原因我們馬上就會知道,産生的樹如下:

決策樹之 GBDT 算法 - 回歸部分

因為我們隻有 3 個樣本,且為了保留算法的細節,這裡隻用了 2 個葉子節點,但實際工作中,GBDT 的葉子節點通常在 8-32 個之間。

然後我們要處理有多個預測值的葉子節點,取它們的平均值作為該節點的輸出,如下:

決策樹之 GBDT 算法 - 回歸部分

上面這棵樹便是第 2 棵樹,聰明的你一定發現了,第 2 棵樹實際上是第 1 棵樹和樣本之間的誤差,我們拿第 3 個樣本作為例子,第一棵樹對該樣本的預測值為 73.3,此時它和目标值 56 之間的誤差為 -17.3,把該樣本輸入到第 2 棵樹,由于她的身高值為 1.5,小于 1.55,她将被預測為 -17.3。

既然後一棵樹的輸出是前一棵樹的誤差,那隻要把所有的樹都加起來,是不是就可以對前面樹的錯誤做出補償,進而達到逼近真實值的目的呢。這就是我們為什麼以殘差建樹的原因。

當然樹之間不會直接相加,而是在求和之前,乘上一個學習率,如 0.1,這樣我們每次都可以在正确的方向上,把誤差縮小一點點。Jerome Friedman 也說過這麼做有助于提升模型的泛化能力(low variance)。

整個過程有點像梯度下降,這應該也是 GBDT 中 Gradient 的來曆。GBDT 的預測過程如下圖所示:

決策樹之 GBDT 算法 - 回歸部分

按此方法更新上述 3 個樣本的預測值和殘差,如下:

樣本 目标值 預測值
1 73.3 + 0.1 × 8.7 = 74.17 13.83
2 1.83
3 73.3 + 0.1 × (-17.3) = 71.57 -15.57

比較這兩棵樹的殘差:

樹1的殘差 樹2的殘差

可見,通過 2 棵樹預測的樣本比隻用 1 棵樹更接近目标值。接下來,我們再使用第 2 棵樹的殘差來建構第 3 棵樹,用第 3 棵樹的殘差來建構第 4 棵樹,如此循環下去,直到樹的棵數滿足預設條件,或總殘差小于一定門檻值為止。以上,就是 GBDT 回歸樹的原理。

深入 GBDT 算法細節

GBDT 從名字上給人一種不明覺厲的印象,但從上文可以看出,它的思想還是非常直覺的。對于隻想了解其原理的同學,至此已經足夠了,想學習更多細節的同學,可以繼續往下閱讀。

初始化模型

該算法主要分為兩個步驟,第一步為初始化模型:

$$

F_0(x) = \arg\min_{\gamma} \sum_{i=1}^n L(y_i, \gamma)

上式中,$F$ 表示模型,$F_0$ 即模型初始狀态;L 為 Loss Function,n 為訓練樣本的個數,$y_i$ 為樣本 i 的目标值,gamma 為初始化的預測值,意為找一個 gamma,能使所有樣本的 Loss 最小。

前文提過,GBDT 回歸算法使用 MSE 作為其 Loss,即:

L(y_i,\hat{y_i}) = \frac{1}{2}(y_i-\hat{y_i})^2

公式中 $\hat{y_i}$ 表示第 i 個樣本的預測值,我們把例子中的 3 個樣本帶入 $F_0$ 中,得:

F_0(x) = \frac{1}{2}(88-\gamma)^2 + \frac{1}{2}(76-\gamma)^2+\frac{1}{2}(56-\gamma)^2

要找到一個 gamma,使上式最小,因為上式是一個抛物線,那麼 $d(F_0)/d\gamma=0$ 時,上式有最小值,于是:

\frac{d(F_0)}{d\gamma}=(\gamma-88)+(\gamma-76)+(\gamma-56)=0

上式化簡後,你一眼就可以看出 gamma = (88+76+56)/3 = 73.3,即初始值就是所有樣本的平均值,

模型疊代

算法的第二個步驟是一個循環,僞代碼如下:

for m = 1 to M:
    (A)
    (B)
    (C)
    (D)           

其中,m 表示樹的序号,M 為樹的總個數(通常該值設為 100 或更多),(A) (B) (C) (D) 代表每次循環中的 4 個子步驟,我們先來看 (A)

(A) 計算

r_{im} = -\left[ \frac{\partial L(y_i,F(x_i))}{\partial F(x_i)} \right]_{F(x)=F_{m-1}(x)}

我們把 $F(x_i)$ 換成 $\hat{y_i}$,該式子其實是對 Loss 求 $\hat{y_i}$ 的偏微分,該偏微分為:

\frac{\partial{L(y_i, \hat{y_i})}}{\partial \hat{y_i}} = \frac{\partial \frac{1}{2}(y_i-\hat{y_i})^2}{\partial \hat{y_i}} = -(y_i-\hat{y_i})

而 $F(x)=F_{m-1}(x)$ 意為使用上一個模型來計算 $\hat{y_i}$,即用 m-1 棵已生成的樹來預測每一個樣本,那麼 $r_{im} = y_i-\hat{y_i}$ 就是上面說的計算殘差這一步。

(B) 使用回歸決策樹來拟合殘差 $r_{im}$,樹的葉子節點标記為 $R_{jm}$,其中 j 表示第 j 個葉子節點,m 表示第 m 棵樹。該步驟的細節如果不清楚可以檢視

CART 回歸樹一文

(C) 對每個葉子節點,計算

\gamma_{jm} = \arg\min_{\gamma} \sum_{x_i \in R_{ij}} L(y_i,F_{m-1}(x_i)+\gamma)

上面式子雖然較為複雜,但它和初始化步驟中的式子的目的是一樣的,即在每個葉子節點中,找到一個輸出值 gamma,使得整個葉子節點的 Loss 最小。

$\gamma_{jm}$ 為第 m 棵樹中,第 j 個葉子節點的輸出,$\sum_{x_i \in R_{ij}}L$ 表示在第 j 個葉子節點中所有樣本的 Loss,如下面的樹中,左邊葉子節點上有 1 個樣本,而右邊葉子節點内有 2 個樣本,我們希望根據這些樣本來求得對應葉子的唯一輸出,而 Loss 最小化就是解決之道。

決策樹之 GBDT 算法 - 回歸部分

在 Loss 函數中,第 2 個參數 $F_{m-1}(x_i) + \gamma$ 是模型對樣本 i 的預測,再加上 $\gamma$,對于隻有 1 個樣本的葉子節點來說,$\gamma$ 就是該樣本殘差,而對于有多個樣本的節點來說,$\gamma$ 為能使 Loss 最小的那個值,下面就這兩種情況分别說明:

以上面這棵樹為例,左邊葉子節點隻有 1 個樣本,即樣本 3,将它帶入到公式中:

\begin{aligned}

\gamma_{11} &= \arg\min_{\gamma}L(y_3, F_0(x_3)+\gamma)\\

&=\arg\min_{\gamma}(\frac{1}{2}(56-(73.3+\gamma))^2)\\

&=\arg\min_{\gamma}(\frac{1}{2}(-17.3-\gamma)^2)

\end{aligned}

要求右邊的式子最小,和上面一樣,我們令其導數為 0:

\frac{d}{d\gamma}\left[\frac{1}{2}(-17.3-\gamma)^2\right] = 17.3+\gamma = 0

算得 $\gamma_{11} = -17.3$,是以當葉子中隻有 1 個樣本時,該葉子的輸出就是其殘差。

再來看下右邊這個節點,其中包含 2 個樣本,同樣把樣本 1 和樣本 2 帶入到公式中,得:

\gamma_{21} &=\arg\min_{\gamma}(L(y_1, F_0(x_1)+\gamma)+L(y_2, F_0(x_2)+\gamma))\\

&=\arg\min_{\gamma}(\frac{1}{2}(88-(73.3+\gamma))^2+\frac{1}{2}(76-(73.3+\gamma))^2)\\

&=\arg\min_{\gamma}(\frac{1}{2}(14.7-\gamma)^2+\frac{1}{2}(2.7-\gamma)^2)

對右邊求導:

\frac{d}{d\gamma}\left[ \frac{1}{2}(14.7-\gamma)^2+\frac{1}{2}(2.7-\gamma)^2) \right] = \gamma-14.7+\gamma-2.7

上式為 0 時,Loss 最小,即

\gamma-14.7+\gamma-2.7 = 0

于是

\gamma = \frac{14.7+2.7}{2} = 8.7

可見,當葉子中有多個樣本時,該葉子的輸出值就是所有樣本殘差的平均值。

(D) 更新模型,下次疊代中使用 m 棵樹來做預測:

F_m(x) = F_{m-1}(x) + \nu \sum_{j=1}^{J_m}\gamma_{jm}

上式中,$\nu$ 表示學習率。之後,訓練将重新來到 (A) 步驟,進入下一棵樹建構的循環中。

總結

本文我們一起學習了 GBDT 的回歸算法,一開始,通過一個簡單的例子描述了 GBDT 的原理,之後,我們對 GBDT 的每個步驟進行了逐一剖析,希望本文能給你帶來收獲。

參考:

繼續閱讀