天天看點

機器學習筆記_貝葉斯分類器(IV)_半樸素貝葉斯分類器為什麼需要半樸素貝葉斯分類器半樸素貝葉斯分類器的基本思想常用政策_”獨依賴估計”不同的獨依賴分類器

為什麼需要半樸素貝葉斯分類器

1:後驗機率 P(c∣x) 計算起來比較困難。

2:屬性條件獨立性假設在現實任務中往往很難成立。

半樸素貝葉斯分類器的基本思想

适當考慮一部分屬性之間的互相依賴資訊,進而既不需要進行聯合機率計算,又不至于徹底忽略比較強的屬性依賴關系。

常用政策_”獨依賴估計”

方法:假設每個屬性在類别之外最多僅依賴于一個其他屬性

P(c∣x)∝P(c)Πdi=1P(xi∣c,pai)

其中 pai 為屬性 xi 所依賴的屬性,稱為 xi 的父屬性。此時,對每個屬性 xi ,若其夫屬性 pai 已知,則可以采用類似 P^(xi∣c)=|Dc,xi|+1|Dc|+Ni

的辦法來估計機率值 P(xi∣c,pai) 于是問題就轉換為如何确定每個屬性的父屬性,不同的做法将産生不同的獨依賴分類器。

不同的獨依賴分類器

NB

就是樸素貝葉斯分類器

機器學習筆記_貝葉斯分類器(IV)_半樸素貝葉斯分類器為什麼需要半樸素貝葉斯分類器半樸素貝葉斯分類器的基本思想常用政策_”獨依賴估計”不同的獨依賴分類器

SPODE

假設所有的屬性都依賴于同一個屬性,稱為“超父”,然後通過交叉驗證的方式來确定超父屬性。由此産生了SPODE(Super-Parent ODE)方法。

機器學習筆記_貝葉斯分類器(IV)_半樸素貝葉斯分類器為什麼需要半樸素貝葉斯分類器半樸素貝葉斯分類器的基本思想常用政策_”獨依賴估計”不同的獨依賴分類器

TAN

TAN(Tree Augmented naive Bayes)在最大帶權生成樹(maximum weighted spanning tree)算法的基礎上,通過下面的步驟将屬性間的依賴關系簡化為如圖所示的樹形結構:

機器學習筆記_貝葉斯分類器(IV)_半樸素貝葉斯分類器為什麼需要半樸素貝葉斯分類器半樸素貝葉斯分類器的基本思想常用政策_”獨依賴估計”不同的獨依賴分類器

1. 計算任意兩個屬性之間的條件互資訊(conditional mutual information)

I(xi,xj∣y)=∑xi,xj;c∈YP(xi,xj∣c)logP(xi,xj∣c)P(xi∣c)P(xj∣c)

2. 以屬性為結點建構完全圖,任意兩個結點之間的邊權重重設為 I(xi,xj∣y) ;

3. 建構此完全圖的最大帶權生成樹,挑選根變量,将邊置為有向邊

4. 加入類别結點 y ,增加從y到每個屬性的有向邊。

條件互資訊 I(xi,xj∣y) 刻畫了屬性 xi 和 xj 在已知類别的情況下的相關性,是以通過最大生成樹算法,TAN實際上僅保留了強相關屬性之間的依賴性。

AODE

AODE(Averaged One-Dependent Estimator)是一種基于內建學習機制、更為強大的獨依賴分類器,與SPODE通過模型選擇确定超父屬性不同,AODE嘗試将每個屬性作為超父來建構SPODE。然後将這些具有足夠訓練資料支援的SPODE內建起來作為最終結果,即:

P(c∣x)∝∑i=1|Dxi|≥m′dP(c,xi)Πdj=1P(xi∣c,xi)

其中 Dxi 在第 i 個屬性上取值為xi的樣本的集合, m′ 為門檻值或者常數,顯然AODE需要估計 P(c,xi) 和 P(xj∣c,xi) 于是:

P^(c,xi)=|Dc,xi|+1|D|+NiP^(xj∣c,xi)=|Dc,xi,xj|+1|Dc,xi|+Nj

其中 Ni 是第 i 個屬性可能的取值數,Dc,xi是類别為 c 且在第i個屬性上取值為 xi 的樣本的集合, Dc,xi,xj 是類别為 c 且在第i和第 j 個屬性上取值分别為xi和 xj 的樣本的集合。

繼續閱讀