第四章 樸素貝葉斯法
樸素貝葉斯法是通過學習輸入 X X X和輸出 Y Y Y的聯合分布 P ( X , Y ) P(X,Y) P(X,Y),對給定的輸入 x x x,根據貝葉斯理論求出後驗機率最大的輸出 y y y的方法。是一種生成學習方法
4.1.樸素貝葉斯算法的學習與分類
4.1.1.基本方法
![](https://img.laitimes.com/img/__Qf2AjLwojIjJCLyojI0JCLiAzNfRHLGZkRGZkRfJ3bs92YsYTMfVmepNHL9kkeNh3YU1UMFRVT3V1MMBjVtJWd0ckW65UbM5WOHJWa5kHT20ESjBjUIF2X0hXZ0xCMx81dvRWYoNHLrdEZwZ1Rh5WNXp1bwNjW1ZUba9VZwlHdssmch1mclRXY39CXldWYtlWPzNXZj9mcw1ycz9WL49zZuBnL0MzMzUDNwgTMyATMwAjMwIzLc52YucWbp5GZzNmLn9Gbi1yZtl2Lc9CX6MHc0RHaiojIsJye.png)
4.1.2.後驗機率最大化的含義
樸素貝葉斯将執行個體分到後驗機率最大的類中,這等價于期望風險最下化。
4.2.樸素貝葉斯算法的參數估計
4.2.1.極大似然估計
樸素貝葉斯可使用極大似然估計,即認為在條件下已經出現最多的執行個體是機率最大的。
4.2.2.學習分類與算法
4.2.3.貝葉斯估計
使用極大似然會出現要顧及的機率值為0的情況,會影響到後驗機率的計算結果(因為後驗機率要除以 y = c y=c y=c的機率,此機率不能為0),使分類産生偏差,可使用貝葉斯估計解決。