天天看點

再談機器學習中的歸一化方法(Normalization Method)

機器學習、資料挖掘工作中,資料前期準備、資料預處理過程、特征提取等幾個步驟幾乎要花費資料工程師一半的工作時間。同時,資料預處理的效果也直接影響了後續模型能否有效的工作。然而,目前的大部分學術研究主要集中在模型的建構、優化等方面,對資料預處理的理論研究甚少,可以說,很多資料預處理工作仍然是靠工程師的經驗進行的。從業資料模組化/挖掘工作也有近2年的時間,在這裡結合談一談資料預進行中歸一化方法。

在之前的部落格中轉載了一篇關于維歸約的文章:資料預處理之歸一化。論述的比較簡單,有興趣的可以先了解一下。

在這裡主要讨論兩種歸一化方法:

線性函數将原始資料線性化的方法轉換到[0 1]的範圍,歸一化公式如下:

再談機器學習中的歸一化方法(Normalization Method)

該方法實作對原始資料的等比例縮放,其中Xnorm為歸一化後的資料,X為原始資料,Xmax、Xmin分别為原始資料集的最大值和最小值。

0均值歸一化方法将原始資料集歸一化為均值為0、方差1的資料集,歸一化公式如下:

再談機器學習中的歸一化方法(Normalization Method)

其中,μ、σ分别為原始資料集的均值和方法。該種歸一化方式要求原始資料的分布可以近似為高斯分布,否則歸一化的效果會變得很糟糕。

以上為兩種比較普通但是常用的歸一化技術,那這兩種歸一化的應用場景是怎麼樣的呢?什麼時候第一種方法比較好、什麼時候第二種方法比較好呢?下面做一個簡要的分析概括:

1、在分類、聚類算法中,需要使用距離來度量相似性的時候、或者使用PCA技術進行降維的時候,第二種方法(Z-score

standardization)表現更好。

2、在不涉及距離度量、協方差計算、資料不符合正太分布的時候,可以使用第一種方法或其他歸一化方法。比如圖像進行中,将RGB圖像轉換為灰階圖像後将其值限定在[0

255]的範圍。

歸一化方法對方差、協方差的影響:假設資料為2個次元(X、Y),首先看0均值對方差、協方差的影響:

先使用第二種方法進行計算,我們先不做方差歸一化,隻做0均值化,變換後資料為

再談機器學習中的歸一化方法(Normalization Method)
再談機器學習中的歸一化方法(Normalization Method)

新資料的協方差為

再談機器學習中的歸一化方法(Normalization Method)

由于 

再談機器學習中的歸一化方法(Normalization Method)

是以

再談機器學習中的歸一化方法(Normalization Method)

而原始資料協方差為

再談機器學習中的歸一化方法(Normalization Method)

是以 

再談機器學習中的歸一化方法(Normalization Method)

做方差歸一化後:

再談機器學習中的歸一化方法(Normalization Method)

方差歸一化後的協方差為:

再談機器學習中的歸一化方法(Normalization Method)

使用第一種方法進行計算,為友善分析,我們隻對X維進行線性函數變換

再談機器學習中的歸一化方法(Normalization Method)

計算協方差

再談機器學習中的歸一化方法(Normalization Method)

可以看到,使用第一種方法(線性變換後),其協方差産生了倍數值的縮放,是以這種方式無法消除量綱對方差、協方差的影響,對PCA分析影響巨大;同時,由于量綱的存在,使用不同的量綱、距離的計算結果會不同。

而在第二種歸一化方式中,新的資料由于對方差進行了歸一化,這時候每個次元的量綱其實已經等價了,每個次元都服從均值為0、方差1的正态分布,在計算距離的時候,每個次元都是去量綱化的,避免了不同量綱的選取對距離計算産生的巨大影響。

總結來說,在算法、後續計算中涉及距離度量(聚類分析)或者協方差分析(PCA、LDA等)的,同時資料分布可以近似為狀态分布,應當使用0均值的歸一化方法。其他應用中更具需要選用合适的歸一化方法。