天天看點

r語言做決策樹模型(少廢話版本)

#第1步:工作目錄和資料集的準備

setwd("C:/Users/IBM/Desktop/170222分類樹模組化/2.23模組化")#設定目前的工作目錄,重要!

audit2<-read.csv("model2.csv",header=T)

str(audit2) #轉成字元串類型的

#第2步:做訓練集和測試集

set.seed(1)

sub<-sample(1:nrow(audit2),round(nrow(audit2)*2/3))

length(sub) #24443

data_train<-audit2[sub,]#取2/3的資料做訓練集

data_test<-audit2[-sub,]#取1/3的資料做測試集

dim(data_train)#訓練集行數和列數24443 12

dim(data_test) #測試集的行數和列數12222 12

table(data_train$是否轉化) 

table(data_test$是否轉化)

#第3步:用訓練集模組化,觀察模型結果

tree.both<-rpart(as.factor(是否轉化)~ .,data=data_train,method='class',minsplit=20,minbucket=150,cp=0.00017)

summary(tree.both)

tree.both$variable.importance

printcp(tree.both)

plotcp(tree.both,lwd=2) 

#第4步:畫決策樹

#4.1畫決策樹第1種方法,畫出來的樹比較簡單

plot(tree.both)

text(tree.both,use.n=T,all=T,cex=0.9)

#4.2畫決策樹第2種方法,畫出來的樹稍微好看些

library(rpart.plot)

rpart.plot(tree.both,branch=1,shadow.col="gray",box.col="green",border.col="blue",split.col="red",split.cex=1.2,main="決策樹")

#第5步:剪枝

#我們使用具有最小交叉驗證誤差的cp來建立回歸樹

cp=tree.both$cptable[which.min(tree.both$cptable[,"xerror"]),"CP"]

cp #cp=0.00049

#第6步:剪枝之後的樹再次畫圖

tree.both2<-prune(tree.both,cp=tree.both$cptable[which.min(tree.both$cptable[,"xerror"]),"CP"])

summary(tree.both2)

tree.both2$variable.importance

printcp(tree.both2)

plotcp(tree.both2,lwd=2) 

library(rpart.plot)

rpart.plot(tree.both2,branch=1,shadow.col="gray",box.col="green",border.col="blue",split.col="red",split.cex=1.2,main="決策樹")

#第7步:輸出規則。剪枝後的決策樹規則,從規則中再找規律

library(rattle)

asRules(tree.both2)

#第8步:在測試集上做預測

library(pROC)

pred.tree.both<-predict(tree.both,newdata=data_test)

#第9步:看模型的預測效果如何呀。正确的有多少,錯誤的有多少

predictScore<-data.frame(pred.tree.both)

rownames(predictScore) #看這個矩陣行的名字

colnames(predictScore)#看這個矩陣列的名字

predictScore$是否轉化<-'ok'  #在預測的矩陣後面多加一列‘是否轉化’

predictScore[predictScore$FALSE.>predictScore$TRUE.,][,"是否轉化"]=FALSE #如果false的機率大于true的機率,那麼判斷為false

predictScore[predictScore$FALSE.<=predictScore$TRUE.,][,"是否轉化"]=TRUE 

n<-table(data_test$是否轉化,predictScore$是否轉化)

n #看分布情況

percantage<-c(n[1,1]/sum(n[1,]),n[2,2]/sum(n[2,]))

percantage