點選“ 機器學習研習社 ”,“置頂”公衆号
重磅幹貨,第一時間送達
回複【大禮包】送你機器學習資料與筆記
回顧
機器學習(1):資料預處理
機器學習(2):簡單線性回歸分析
機器學習(3):多元線性回歸
機器學習(4):邏輯回歸
機器學習(5):KNN
機器學習(6):邏輯回歸的數學原理
機器學習(7):支援向量機
機器學習(8):實作KNN
機器學習(9):SVM的實作
機器學習(10):樸素貝葉斯
機器學習(11):通過核心技巧實作SVM
機器學習(12): 神奇的邏輯回歸
機器學習(13): Beautiful Soup
機器學習(14): 機器為什麼能學習?
算法部分不再細講,之前發過很多:
【算法系列】決策樹
決策樹(Decision Tree)ID3算法
決策樹(Decision Tree)C4.5算法
決策樹(Decision Tree)CART算法
ID3、C4.5、CART三種決策樹的差別
實驗:
導入需要用到的python庫
import numpy as npimport matplotlib.pyplot as pltimport pandas as pd
導入資料集
dataset = pd.read_csv('Social_Network_Ads.csv')
X = dataset.iloc[:, [2, 3]].values
y = dataset.iloc[:, 4].values
将資料集拆分為訓練集和測試集
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.25, random_state = 0)
特征縮放
from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)
對測試集進行決策樹分類拟合
from sklearn.tree import DecisionTreeClassifier
classifier = DecisionTreeClassifier(criterion = 'entropy', random_state = 0)
classifier.fit(X_train, y_train)
預測測試集的結果
y_pred = classifier.predict(X_test)
制作混淆矩陣
from sklearn.metrics import confusion_matrix
cm = confusion_matrix(y_test, y_pred)
将訓練集結果進行可視化
from matplotlib.colors import ListedColormap
X_set, y_set = X_train, y_train
X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01),
np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01))
plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape),alpha = 0.75, cmap = ListedColormap(('red', 'green')))
plt.xlim(X1.min(), X1.max())
plt.ylim(X2.min(), X2.max())for i, j in enumerate(np.unique(y_set)):
plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1],c = ListedColormap(('red', 'green'))(i), label = j)
plt.title('Decision Tree Classification (Training set)')
plt.xlabel('Age')
plt.ylabel('Estimated Salary')
plt.legend()
plt.show()
将測試集結果進行可視化
from matplotlib.colors import ListedColormap
X_set, y_set = X_test, y_test
X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01),
np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01))
plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape),alpha = 0.75, cmap = ListedColormap(('red', 'green')))
plt.xlim(X1.min(), X1.max())
plt.ylim(X2.min(), X2.max())for i, j in enumerate(np.unique(y_set)):
plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1],c = ListedColormap(('red', 'green'))(i), label = j)
plt.title('Decision Tree Classification (Test set)')
plt.xlabel('Age')
plt.ylabel('Estimated Salary')
plt.legend()
plt.show()
推薦閱讀
機器學習(1):資料預處理
機器學習(2):簡單線性回歸分析
機器學習(3):多元線性回歸
機器學習(4):邏輯回歸
機器學習(5):KNN
機器學習(6):邏輯回歸的數學原理
機器學習(7):支援向量機
機器學習(8):實作KNN
機器學習(9):SVM的實作
機器學習(10):樸素貝葉斯
機器學習(11):通過核心技巧實作SVM
機器學習(12): 神奇的邏輯回歸
機器學習(13): Beautiful Soup
機器學習(14): 機器為什麼能學習?
機器學習研習社:目前是由國内985博士,碩士組成的團體發起并營運。主要分享和研究機器學習、深度學習、NLP 、Python,大資料等前沿知識、幹貨筆記和優質資源。