天天看点

决策树C4.5分类算法的C++实现

一、前言

       当年实习公司布置了一个任务让写一个决策树,以前并未接触数据挖掘的东西,但作为一个数据挖掘最基本的知识点,还是应该有所理解的。

  程序的源码可以点击这里进行下载,下面简要介绍一下决策树以及相关算法概念。

  决策树是一个预测模型;他代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表的某个可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。决策树仅有单一输出,若欲有复数输出,可以建立独立的决策树以处理不同输出。 数据挖掘中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测(就像上面的银行官员用他来预测贷款风险)。从数据产生决策树的机器学习技术叫做决策树学习, 通俗说就是决策树。(来自维基百科)

  1986年Quinlan提出了著名的ID3算法。在ID3算法的基础上,1993年Quinlan又提出了C4.5算法。为了适应处理大规模数据集的需要,后来又提出了若干改进的算法,其中SLIQ (super-vised learning in quest)和SPRINT (scalable parallelizableinduction of decision trees)是比较有代表性的两个算法,此处暂且略过。

  本文实现了C4.5的算法,在ID3的基础上计算信息增益,从而更加准确的反应信息量。其实通俗的说就是构建一棵加权的最短路径Haffman树,让权值最大的节点为父节点。

二、基本概念

  下面简要介绍一下ID3算法:

  ID3算法的核心是:在决策树各级结点上选择属性时,用信息增益(information gain)作为属性的选择标准,以使得在每一个非叶结点进行测试时,能获得关于被测试记录最大的类别信息。

  其具体方法是:检测所有的属性,选择信息增益最大的属性产生决策树结点,由该属性的不同取值建立分支,再对各分支的子集递归调用该方法建立决策树结点的分支,直到所有子集仅包含同一类别的数据为止。最后得到一棵决策树,它可以用来对新的样本进行分类。

  某属性的信息增益按下列方法计算:

决策树C4.5分类算法的C++实现

      信息熵是香农提出的,用于描述信息不纯度(不稳定性),其计算公式是Info(D)。

  其中:Pi为子集合中不同性(而二元分类即正样例和负样例)的样例的比例;j是属性A中的索引,D是集合样本,Dj是D中属性A上值等于j的样本集合。

      这样信息收益可以定义为样本按照某属性划分时造成熵减少的期望,可以区分训练样本中正负样本的能力。信息增益定义为结点与其子结点的信息熵之差,公式为Gain(A)。

  ID3算法的优点是:算法的理论清晰,方法简单,学习能力较强。其缺点是:只对比较小的数据集有效,且对噪声比较敏感,当训练数据集加大时,决策树可能会随之改变。

  C4.5算法继承了ID3算法的优点,并在以下几方面对ID3算法进行了改进:

  1) 用信息增益率来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足,公式为GainRatio(A);

  2) 在树构造过程中进行剪枝;

  3) 能够完成对连续属性的离散化处理;

  4) 能够对不完整数据进行处理。

  C4.5算法与其它分类算法如统计方法、神经网络等比较起来有如下优点:产生的分类规则易于理解,准确率较高。其缺点是:在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效。此外,C4.5只适合于能够驻留于内存的数据集,当训练集大得无法在内存容纳时程序无法运行。

决策树C4.5分类算法的C++实现

三、数据集

实现的C4.5数据集合如下:

决策树C4.5分类算法的C++实现

它记录了再不同的天气状况下,是否出去觅食的数据。

四、程序代码

  程序引入状态树作为统计和计算属性的数据结构,它记录了每次计算后,各个属性的统计数据,其定义如下:

[cpp]  view plain copy print ?

决策树C4.5分类算法的C++实现
决策树C4.5分类算法的C++实现
  1. struct attrItem  
  2. {  
  3.    std::vector<int>  itemNum;  //itemNum[0] = itemLine.size()  
  4.                                //itemNum[1] = decision num  
  5.    set<int>          itemLine;  
  6. };  
  7. struct attributes  
  8. {  
  9.    string attriName;  
  10.    vector<double> statResult;  
  11.    map<string, attrItem*> attriItem;  
  12. };   
  13. vector<attributes*> statTree;  

决策树节点数据结构如下:

[cpp]  view plain copy print ?

决策树C4.5分类算法的C++实现
决策树C4.5分类算法的C++实现
  1. struct TreeNode   
  2. {  
  3.     std::string               m_sAttribute;  
  4.     int                       m_iDeciNum;  
  5.     int                       m_iUnDecinum;  
  6.     std::vector<TreeNode*>    m_vChildren;      
  7. };  

程序源码如下所示(程序中有详细注解):

[cpp]  view plain copy print ?

决策树C4.5分类算法的C++实现
决策树C4.5分类算法的C++实现
  1. #include "DecisionTree.h"  
  2. int main(int argc, char* argv[]){  
  3.     string filename = "source.txt";  
  4.     DecisionTree dt ;  
  5.     int attr_node = 0;  
  6.     TreeNode* treeHead = nullptr;  
  7.     set<int> readLineNum;  
  8.     vector<int> readClumNum;  
  9.     int deep = 0;  
  10.     if (dt.pretreatment(filename, readLineNum, readClumNum) == 0)  
  11.     {  
  12.         dt.CreatTree(treeHead, dt.getStatTree(), dt.getInfos(), readLineNum, readClumNum, deep);  
  13.     }  
  14.     return 0;  
  15. }  
  16. int DecisionTree::pretreatment(string filename, set<int>& readLineNum, vector<int>& readClumNum)  
  17. {  
  18.     ifstream read(filename.c_str());  
  19.     string itemline = "";  
  20.     getline(read, itemline);  
  21.     istringstream iss(itemline);  
  22.     string attr = "";  
  23.     while(iss >> attr)  
  24.     {  
  25.         attributes* s_attr = new attributes();  
  26.         s_attr->attriName = attr;  
  27.         //初始化属性名  
  28.         statTree.push_back(s_attr);  
  29.         //初始化属性映射  
  30.         attr_clum[attr] = attriNum;  
  31.         attriNum++;  
  32.         //初始化可用属性列  
  33.         readClumNum.push_back(0);  
  34.         s_attr = nullptr;  
  35.     }  
  36.     int i  = 0;  
  37.     //添加具体数据  
  38.     while(true)  
  39.     {  
  40.         getline(read, itemline);  
  41.         if(itemline == "" || itemline.length() <= 1)  
  42.         {  
  43.             break;  
  44.         }  
  45.         vector<string> infoline;  
  46.         istringstream stream(itemline);  
  47.         string item = "";  
  48.         while(stream >> item)  
  49.         {  
  50.             infoline.push_back(item);  
  51.         }  
  52.         infos.push_back(infoline);  
  53.         readLineNum.insert(i);  
  54.         i++;  
  55.     }  
  56.     read.close();  
  57.     return 0;  
  58. }  
  59. int DecisionTree::statister(vector<vector<string>>& infos, vector<attributes*>& statTree,   
  60.                             set<int>& readLine, vector<int>& readClumNum)  
  61. {  
  62.     //yes的总行数  
  63.     int deciNum = 0;  
  64.     //统计每一行  
  65.     set<int>::iterator iter_end = readLine.end();  
  66.     for (set<int>::iterator line_iter = readLine.begin(); line_iter != iter_end; ++line_iter)  
  67.     {  
  68.         bool decisLine = false;  
  69.         if (infos[*line_iter][attriNum - 1] == "yes")  
  70.         {  
  71.             decisLine = true;  
  72.             deciNum++;   
  73.         }  
  74.         //如果该列未被锁定并且为属性列,进行统计  
  75.         for (int i = 0; i < attriNum - 1; i++)  
  76.         {  
  77.             if (readClumNum[i] == 0)  
  78.             {  
  79.                 std::string tempitem = infos[*line_iter][i];  
  80.                 auto map_iter = statTree[i]->attriItem.find(tempitem);  
  81.                 //没有找到  
  82.                 if (map_iter == (statTree[i]->attriItem).end())  
  83.                 {  
  84.                     //新建  
  85.                     attrItem* attritem = new attrItem();  
  86.                     attritem->itemNum.push_back(1);  
  87.                     decisLine ? attritem->itemNum.push_back(1) : attritem->itemNum.push_back(0);  
  88.                     attritem->itemLine.insert(*line_iter);  
  89.                     //建立属性名->item映射  
  90.                     (statTree[i]->attriItem)[tempitem] = attritem;  
  91.                     attritem = nullptr;  
  92.                 }  
  93.                 else  
  94.                 {  
  95.                     (map_iter->second)->itemNum[0]++;  
  96.                     (map_iter->second)->itemLine.insert(*line_iter);  
  97.                     if(decisLine)  
  98.                     {  
  99.                         (map_iter->second)->itemNum[1]++;  
  100.                     }  
  101.                 }  
  102.             }  
  103.         }  
  104.     }  
  105.     return deciNum;  
  106. }  
  107. void DecisionTree::CreatTree(TreeNode* treeHead, vector<attributes*>& statTree, vector<vector<string>>& infos,   
  108.                              set<int>& readLine, vector<int>& readClumNum, int deep)  
  109. {  
  110.     //有可统计的行  
  111.     if (readLine.size() != 0)  
  112.     {  
  113.         string treeLine = "";  
  114.         for (int i = 0; i < deep; i++)  
  115.         {  
  116.             treeLine += "--";  
  117.         }  
  118.         //清空其他属性子树,进行递归  
  119.         resetStatTree(statTree, readClumNum);  
  120.         //统计当前readLine中的数据:包括统计哪几个属性、哪些行,  
  121.         //并生成statTree(由于公用一个statTree,所有用引用代替),并返回目的信息数  
  122.         int deciNum = statister(getInfos(), statTree, readLine, readClumNum);  
  123.         int lineNum = readLine.size();  
  124.         int attr_node = compuDecisiNote(statTree, deciNum, lineNum, readClumNum);//本条复制为局部变量  
  125.         //该列被锁定  
  126.         readClumNum[attr_node] = 1;  
  127.         //建立树根  
  128.         TreeNode* treeNote = new TreeNode();  
  129.         treeNote->m_sAttribute = statTree[attr_node]->attriName;  
  130.         treeNote->m_iDeciNum = deciNum;  
  131.         treeNote->m_iUnDecinum = lineNum - deciNum;  
  132.         if (treeHead == nullptr)  
  133.         {  
  134.             treeHead = treeNote; //树根  
  135.         }  
  136.         else  
  137.         {  
  138.             treeHead->m_vChildren.push_back(treeNote); //子节点  
  139.         }  
  140.         cout << "节点-"<< treeLine << ">" << statTree[attr_node]->attriName    << endl;  
  141.         //从孩子分支进行递归  
  142.         for(map<string, attrItem*>::iterator map_iterator = statTree[attr_node]->attriItem.begin();  
  143.             map_iterator != statTree[attr_node]->attriItem.end(); ++map_iterator)  
  144.         {  
  145.             //打印分支  
  146.             int sum = map_iterator->second->itemNum[0];  
  147.             int deci_Num = map_iterator->second->itemNum[1];  
  148.             cout << "分支--"<< treeLine << ">" << map_iterator->first << endl;  
  149.             //递归计算、创建  
  150.             if (deci_Num != 0 && sum != deci_Num )  
  151.             {  
  152.                 //计算有效行数  
  153.                 set<int> newReadLineNum = map_iterator->second->itemLine;  
  154.                 //DFS  
  155.                 CreatTree(treeNote, statTree, infos, newReadLineNum, readClumNum, deep + 1);  
  156.             }  
  157.             else  
  158.             {  
  159.                 //建立叶子节点  
  160.                 TreeNode* treeEnd = new TreeNode();  
  161.                 treeEnd->m_sAttribute = statTree[attr_node]->attriName;  
  162.                 treeEnd->m_iDeciNum = deci_Num;  
  163.                 treeEnd->m_iUnDecinum = sum - deci_Num;  
  164.                 treeNote->m_vChildren.push_back(treeEnd);  
  165.                 //打印叶子  
  166.                 if (deci_Num == 0)  
  167.                 {  
  168.                     cout << "叶子---"<< treeLine << ">no" << endl;  
  169.                 }  
  170.                 else  
  171.                 {  
  172.                     cout << "叶子---"<< treeLine << ">yes" << endl;  
  173.                 }  
  174.             }  
  175.         }  
  176.         //还原属性列可用性  
  177.         readClumNum[attr_node] = 0;  
  178.     }  
  179. }  
  180. int DecisionTree::compuDecisiNote(vector<attributes*>& statTree, int deciNum, int lineNum, vector<int>& readClumNum)  
  181. {  
  182.     double max_temp = 0;  
  183.     int max_attribute = 0;  
  184.     //总的yes行的信息量  
  185.     double infoD = info_D(deciNum, lineNum);  
  186.     for (int i = 0; i < attriNum - 1; i++)  
  187.     {  
  188.         if (readClumNum[i] == 0)  
  189.         {  
  190.             double splitInfo = 0.0;  
  191.             //info  
  192.             double info_temp = Info_attr(statTree[i]->attriItem, splitInfo, lineNum);  
  193.             statTree[i]->statResult.push_back(info_temp);  
  194.             //gain  
  195.             double gain_temp = infoD - info_temp;  
  196.             statTree[i]->statResult.push_back(gain_temp);  
  197.             //split_info  
  198.             statTree[i]->statResult.push_back(splitInfo);  
  199.             //gain_info  
  200.             double temp = gain_temp / splitInfo;  
  201.             statTree[i]->statResult.push_back(temp);  
  202.             //得到最大值*/  
  203.             if (temp > max_temp)  
  204.             {  
  205.                 max_temp = temp;  
  206.                 max_attribute = i;  
  207.             }  
  208.         }  
  209.     }  
  210.     return max_attribute;  
  211. }  
  212. double DecisionTree::info_D(int deciNum, int sum)  
  213. {  
  214.     double pi = (double)deciNum / (double)sum;  
  215.     double result = 0.0;  
  216.     if (pi == 1.0 || pi == 0.0)  
  217.     {  
  218.         return result;  
  219.     }  
  220.     result = pi * (log(pi) / log((double)2)) + (1 - pi)*(log(1 - pi)/log((double)2));  
  221.     return -result;  
  222. }  
  223. double DecisionTree::Info_attr(map<string, attrItem*>& attriItem, double& splitInfo, int lineNum)  
  224. {  
  225.     double result = 0.0;  
  226.     for (map<string, attrItem*>::iterator item = attriItem.begin();  
  227.          item != attriItem.end();  
  228.          ++item  
  229.         )  
  230.     {  
  231.          double pi = (double)(item->second->itemNum[0]) / (double)lineNum;  
  232.          splitInfo += pi * (log(pi) / log((double)2));  
  233.          double sub_attr = info_D(item->second->itemNum[1], item->second->itemNum[0]);  
  234.          result += pi * sub_attr;  
  235.     }  
  236.     splitInfo = -splitInfo;  
  237.     return result;  
  238. }  
  239. void DecisionTree::resetStatTree(vector<attributes*>& statTree, vector<int>& readClumNum)  
  240. {  
  241.     for (int i = 0; i < readClumNum.size() - 1; i++)  
  242.     {  
  243.         if (readClumNum[i] == 0)  
  244.         {  
  245.             map<string, attrItem*>::iterator it_end = statTree[i]->attriItem.end();  
  246.             for (map<string, attrItem*>::iterator it = statTree[i]->attriItem.begin();  
  247.                 it != it_end; it++)  
  248.             {  
  249.                 delete it->second;  
  250.             }  
  251.             statTree[i]->attriItem.clear();  
  252.             statTree[i]->statResult.clear();  
  253.         }  
  254.     }  
  255. }  

五、结果分析

程序输出结果为:

决策树C4.5分类算法的C++实现

以图形表示为:

决策树C4.5分类算法的C++实现

六、小结:

  1、在设计程序时,对程序逻辑有时会发生混乱,·后者在纸上仔细画了些草图才解决这些问题,画一个好图可以有效的帮助你理解程序的流程以及逻辑脉络,是需求分析时最为关键的基本功。

  2、在编写程序之初,一直在纠结用什么样的数据结构,后来经过几次在编程实现推敲,才确定最佳的数据结构,可见数据结构在程序中的重要性。

  3、决策树的编写,其实就是理论与实践的相结合,虽然理论上比较简单,但是实践中却会遇到这样那样的问题,而这些问题就是考验一个程序员对最基本的数据结构、算法的理解和熟练程度,所以,勤学勤练基本功依然是关键。

  4、程序的效率还有待提高,欢迎各路高手指正。

http://blog.csdn.net/fy2462/article/details/31762429

继续阅读