樸素貝葉斯
樸素指的是"獨立"
樸素貝葉斯是分類算法,可以給出每種類别發生的機率
善于計算幾個獨立事件同時發生的機率(文章分類)
關于獨立事件(職業, 體型, 身高 各自獨立)
樣本編号 | 職業 | 體型 | 身高 | 女神的喜好 |
---|---|---|---|---|
1 | 程式員 | 勻稱 | 很高 | 喜歡 |
2 | 産品 | 瘦 | 很矮 | 不看 |
3 | 美術 | 胖 | 中等 | |
4 | ||||
5 | ||||
6 |
-
在女神喜歡的條件下, 職業是産品,并且身高很高, 并且體型勻稱的機率? 1/27
P(産品, 很高, 勻稱,|女神喜歡) = P(産品 | 女神喜歡) * P(很高 | 女神喜歡)* P( 勻稱 | 女神喜歡 )
1/27 = (1/3)*(1/3)*(1/3)
樸素貝葉斯公式:
W為文章的特征組(特定文章中各詞組出現的頻率),C為特定的類别
上式等價式
公式右側
- P(F1, F2, ... | C) = P(F1 | C) * P(F2 | C) * (F... | C),表示 特定類别下,特定詞組出現的機率 的乘積
- P(C), 表示 特定類别的文章, 在所有文章中出現的機率
- P(F1, F2, F...) = P(F1) * P(F2) * P(F...) , 表示 特定詞組在所有文章中出現的機率 的乘積
案例:為文章進行分類
from sklearn.naive_bayes import MultinomialNB
from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import TfidfVectorizer
def naivebayes():
# 擷取資料集級
news = fetch_20newsgroups(subset="all")
# 分割資料集
x_train, x_test, y_train, y_test = train_test_split(news.data, news.target, test_size=0.25)
# 進行tfidf特征抽取
tf = TfidfVectorizer()
x_train = tf.fit_transform(x_train)
x_test = tf.transform(x_test)
# 通過樸素貝葉斯進行預測(拉普拉斯平滑系數為設定為1)
mlb = MultinomialNB(alpha=1)
mlb.fit(x_train, y_train)
rate = mlb.score(x_test, y_test)
print("預測準确率為:", rate)
if __name__ == '__main__':
naivebayes()
為文章進行分類