天天看点

weka学习入门笔记

目录 

1. 简介

2. 数据格式

3. 数据获取与预处理

3. 关联规则(购物篮分析)

4. 分类与回归

5. 聚类分析

1. 简介 

weka作为一个公开的数据挖掘工作平台,集合了大量能承担数据挖掘任务的机器学习算法,包括对数据进行预处理,分类,回归、聚类、关联规则以及在新的交互式界面上的可视化。 

如果想自己实现数据挖掘算法的话,可以看一看weka的接口文档。在weka中集成自己的算法甚至借鉴它的方法自己实现可视化工具并不是件很困难的事情。 

2005 年8月,在第11届acm sigkdd国际会议上,怀卡托大学的weka小组荣获了数据挖掘和知识探索领域的最高服务奖,weka系统得到了广泛的认可,被誉为数据挖掘和机器学习 历史上的里程碑,是现今最完备的数据挖掘工具之一(已有11年的发展历史)。weka的每月下载次数已超过万次。 

2. 数据格式 

巧妇难为无米之炊。首先我们来看看weka所用的数据应是什么样的格式。 

跟很多电子表格或数据分析软件一样,weka所处理的数据集是图1那样的一个二维的表格。 

weka学习入门笔记

这 里我们要介绍一下weka中的术语。表格里的一个横行称作一个实例(instance),相当于统计学中的一个样本,或者数据库中的一条记录。竖行称作一 个属性(attrbute),相当于统计学中的一个变量,或者数据库中的一个字段。这样一个表格,或者叫数据集,在weka看来,呈现了属性之间的一种关 系(relation)。图1中一共有14个实例,5个属性,关系名称为“weather”。 

weka存储数据的格式是 arff(attribute-relation file format)文件,这是一种ascii文本文件。图1所示的二维表格存储在如下的arff文件中。这也就是weka自带的“weather.arff” 文件,在weka安装目录的“data”子目录下可以找到。 

代码:

% arff file for the weather data with some numric features 

@relation weather 

@attribute outlook {sunny, overcast, rainy} 

@attribute temperature real 

@attribute humidity real 

@attribute windy {true, false} 

@attribute play {yes, no} 

@data 

% 14 instances 

sunny,85,85,false,no 

sunny,80,90,true,no 

overcast,83,86,false,yes 

rainy,70,96,false,yes 

rainy,68,80,false,yes 

rainy,65,70,true,no 

overcast,64,65,true,yes 

sunny,72,95,false,no 

sunny,69,70,false,yes 

rainy,75,80,false,yes 

sunny,75,70,true,yes 

overcast,72,90,true,yes 

overcast,81,75,false,yes 

rainy,71,91,true,no 

需要注意的是,在windows记事本打开这个文件时,可能会因为回车符定义不一致而导致分行不正常。推荐使用ultraedit这样的字符编辑软件察看arff文件的内容。 

下面我们来对这个文件的内容进行说明。 

识别arff文件的重要依据是分行,因此不能在这种文件里随意的断行。空行(或全是空格的行)将被忽略。 

以“%”开始的行是注释,weka将忽略这些行。如果你看到的“weather.arff”文件多了或少了些“%”开始的行,是没有影响的。 

除 去注释后,整个arff文件可以分为两个部分。第一部分给出了头信息(head information),包括了对关系的声明和对属性的声明。第二部分给出了数据信息(data information),即数据集中给出的数据。从“@data”标记开始,后面的就是数据信息了。 

关系声明 

关系名称在arff文件的第一个有效行来定义,格式为 

@relation <relation-name> 

<relation-name>是一个字符串。如果这个字符串包含空格,它必须加上引号(指英文标点的单引号或双引号)。 

属性声明 

属性声明用一列以“@attribute”开头的语句表示。数据集中的每一个属性都有它对应的“@attribute”语句,来定义它的属性名称和数据类型。 

这 些声明语句的顺序很重要。首先它表明了该项属性在数据部分的位置。例如,“humidity”是第三个被声明的属性,这说明数据部分那些被逗号分开的列 中,第三列数据 85 90 86 96 ... 是相应的“humidity”值。其次,最后一个声明的属性被称作class属性,在分类或回归任务中,它是默认的目标变量。 

属性声明的格式为 

@attribute <attribute-name> <datatype> 

其中<attribute-name>是必须以字母开头的字符串。和关系名称一样,如果这个字符串包含空格,它必须加上引号。 

weka支持的<datatype>有四种,分别是 

numeric-------------------------数值型 

<nominal-specification>-----分类(nominal)型 

string----------------------------字符串型 

date [<date-format>]--------日期和时间型 

其 中<nominal-specification> 和<date-format> 将在下面说明。还可以使用两个类型“integer”和“real”,但是weka把它们都当作“numeric”看待。注意 “integer”,“real”,“numeric”,“date”,“string”这些关键字是区分大小写的,而 “relation”“attribute ”和“date”则不区分。 

数值属性 

数值型属性可以是整数或者实数,但weka把它们都当作实数看待。 

分类属性 

分 类属性由<nominal-specification>列出一系列可能的类别名称并放在花括号中:{<nominal- name1>, <nominal-name2>, <nominal-name3>, ...} 。数据集中该属性的值只能是其中一种类别。 

例如如下的属性声明说明“outlook”属性有三种类别:“sunny”,“ overcast”和“rainy”。而数据集中每个实例对应的“outlook”值必是这三者之一。 

如果类别名称带有空格,仍需要将之放入引号中。 

字符串属性 

字符串属性中可以包含任意的文本。这种类型的属性在文本挖掘中非常有用。 

示例: 

@attribute lcc string 

日期和时间属性 

日期和时间属性统一用“date”类型表示,它的格式是 

@attribute <name> date [<date-format>] 

其中<name>是这个属性的名称,<date-format>是一个字符串,来规定该怎样解析和显示日期或时间的格式,默认的字符串是iso-8601所给的日期时间组合格式“yyyy-mm-dd thh:mm:ss ”。 

数据信息部分表达日期的字符串必须符合声明中规定的格式要求(下文有例子)。 

数据信息 

数据信息中“@data”标记独占一行,剩下的是各个实例的数据。 

每个实例占一行。实例的各属性值用逗号“,”隔开。如果某个属性的值是缺失值(missing value),用问号“?”表示,且这个问号不能省略。例如: 

?,78,90,?,yes 

字符串属性和分类属性的值是区分大小写的。若值中含有空格,必须被引号括起来。例如: 

@relation lccvslcsh 

  @attribute lcc string 

  @attribute lcsh string 

  @data 

  ag5, 'encyclopedias and dictionaries.;twentieth century.' 

  as262, 'science -- soviet union -- history.' 

日期属性的值必须与属性声明中给定的相一致。例如: 

@relation timestamps 

  @attribute timestamp date "yyyy-mm-dd hh:mm:ss" 

  "2001-04-03 12:12:12" 

  "2001-05-03 12:59:55" 

稀疏数据 

有的时候数据集中含有大量的0值(比如购物篮分析),这个时候用稀疏格式的数据存贮更加省空间。 

稀疏格式是针对数据信息中某个实例的表示而言,不需要修改arff文件的其它部分。看如下的数据: 

  0, x, 0, y, "class a" 

  0, 0, w, 0, "class b" 

用稀疏格式表达的话就是 

  {1 x, 3 y, 4 "class a"} 

  {2 w, 4 "class b"} 

每个实例用花括号括起来。实例中每一个非0的属性值用<index> <空格> <value>表示。<index>是属性的序号,从0开始计;<value>是属性值。属性值之间仍用逗号隔开。 

注意在稀疏格式中没有注明的属性值不是缺失值,而是0值。若要表示缺失值必须显式的用问号表示出来。 

relational型属性 

在weka 3.5版中增加了一种属性类型叫做relational,有了这种类型我们可以像关系型数据库那样处理多个维度了。但是这种类型目前还不见广泛应用,暂不作介绍。 

3.数据准备 

使用weka作数据挖掘,面临的第一个问题往往是我们的数据不是arff格式的。幸好,weka还提供了对csv文件的支持,而这种格式是被很多其他软件所支持的。此外,weka还提供了通过jdbc访问数据库的功能。 

在这一节里,我们先以excel和matlab为例,说明如何获得csv文件。然后我们将知道csv文件如何转化成arff文件,毕竟后者才是weka支持得最好的文件格式。面对一个arff文件,我们仍有一些预处理要做,才能进行挖掘任务。 

.* -> .csv 

excel的xls文件可以让多个二维表格放到不同的工作表(sheet)中,我们只能把每个工作表存成不同的csv文件。打开一个xls文件并切换到需要转换的工作表,另存为csv类型,点“确定”、“是”忽略提示即可完成操作。 

在matlab中的二维表格是一个矩阵,我们通过这条命令把一个矩阵存成csv格式。 

csvwrite('filename',matrixname) 

需 要注意的是,matllab给出的csv文件往往没有属性名(excel给出的也有可能没有)。而weka必须从csv文件的第一行读取属性名,否则就会 把第一行的各属性值读成变量名。因此我们对于matllab给出的csv文件需要用ultraedit打开,手工添加一行属性名。注意属性名的个数要跟数 据属性的个数一致,仍用逗号隔开。 

.csv -> .arff 

将csv转换为arff最迅捷的办法是使用weka所带的命令行工具。 

运行weka的主程序,出现gui后可以点击下方按钮进入相应的模块。我们点击进入“simple cli”模块提供的命令行功能。在新窗口的最下方(上方是不能写字的)输入框写上 

java weka.core.converters.csvloader filename.csv > filename.arff 

即可完成转换。 

在weka 3.5中提供了一个“arff viewer”模块,我们可以用它打开一个csv文件将进行浏览,然后另存为arff文件。 

进入“exploer”模块,从上方的按钮中打开csv文件然后另存为arff文件亦可。 

“exploer”界面 

我们应该注意到,“exploer”还提供了很多功能,实际上可以说这是weka使用最多的模块。现在我们先来熟悉它的界面,然后利用它对数据进行预处理。 

weka学习入门笔记

图2显示的是使用3.5版"exploer"打开"bank-data.csv"的情况。我们根据不同的功能把这个界面分成8个区域。 

区域1的几个选项卡是用来切换不同的挖掘任务面板。这一节用到的只有“preprocess”,其他面板的功能将在以后介绍。 

区域2是一些常用按钮。包括打开数据,保存及编辑功能。我们在这里把"bank-data.csv"另存为"bank-data.arff"。 

在区域3中“choose”某个“filter”,可以实现筛选数据或者对数据进行某种变换。数据预处理主要就利用它来实现。 

区域4展示了数据集的一些基本情况。 

区域5中列出了数据集的所有属性。勾选一些属性并“remove”就可以删除它们,删除后还可以利用区域2的“undo”按钮找回。区域5上方的一排按钮是用来实现快速勾选的。 

在区域5中选中某个属性,则区域6中有关于这个属性的摘要。注意对于数值属性和分类属性,摘要的方式是不一样的。图中显示的是对数值属性“income”的摘要。 

区 域7是区域5中选中属性的直方图。若数据集的最后一个属性(我们说过这是分类或回归任务的默认目标变量)是分类变量(这里的“pep”正好是),直方图中 的每个长方形就会按照该变量的比例分成不同颜色的段。要想换个分段的依据,在区域7上方的下拉框中选个不同的分类属性就可以了。下拉框里选上“no class”或者一个数值属性会变成黑白的直方图。 

区域8是状态栏,可以查看log以判断是否有错。右边的weka鸟在动的话说明weka正在执行挖掘任务。右键点击状态栏还可以执行java内存的垃圾回收。 

预处理 

bank-data数据各属性的含义如下: 

id a unique identification number 

age age of customer in years (numeric) 

sex male / female 

region inner_city/rural/suburban/town 

income income of customer (numeric) 

married is the customer married (yes/no) 

children number of children (numeric) 

car does the customer own a car (yes/no) 

save_acct does the customer have a saving account (yes/no) 

current_acct does the customer have a current account (yes/no) 

mortgage does the customer have a mortgage (yes/no) 

pep did the customer buy a pep (personal equity plan) after the last mailing

(yes/no) 

通常对于数据挖掘任务来说,id这样的信息是无用的,我们将之删除。在区域5勾选属性“id”,并点击“remove”。将新的数据集保存一次,并用ultraedit打开这个arff文件。我们发现,在属性声明部分,weka已经为每个属性选好了合适的类型。 

我们知道,有些算法,只能处理所有的属性都是分类型的情况。这时候我们就需要对数值型的属性进行离散化。在这个数据集中有3个变量是数值型的,分别是“age”,“income”和“children”。 

其中“children”只有4个取值:0,1,2,3。这时我们在ultraedit中直接修改arff文件,把 

@attribute children numeric 

改为 

@attribute children {0,1,2,3} 

就可以了。 

在“explorer”中重新打开“bank-data.arff”,看看选中“children”属性后,区域6那里显示的“type”是不是变成“nominal”了? 

“age” 和“income”的离散化我们需要借助weka中名为“discretize”的filter来完成。在区域2中点“choose”,出现一棵 “filter树”,逐级找到“weka.filters.unsupervised.attribute.discretize”,点击。若无法关闭这 个树,在树之外的地方点击“explorer”面板即可。 

现在“choose”旁边的文本框应该显示“discretize -b 10 -m -0.1 -r first-last”。 点击这个文本框会弹出新窗口以修改离散化的参数。 

我 们不打算对所有的属性离散化,只是针对对第1个和第4个属性(见区域5属性名左边的数字),故把attributeindices右边改成“1,4”。计 划把这两个属性都分成3段,于是把“bins”改成“3”。其它框里不用更改,关于它们的意思可以点“more”查看。点“ok”回到 “explorer”,可以看到“age”和“income”已经被离散化成分类型的属性。若想放弃离散化可以点区域2的“undo”。 

如果对“"(-inf-34.333333]"”这样晦涩的标识不满,我们可以用ultraedit打开保存后的arff文件,把所有的“'/'(-inf-34.333333]/''”替换成“0_34”。其它标识做类似地手动替换。 

4. 关联规则(购物篮分析) 

注意 :目前,weka的关联规则分析功能仅能用来作示范,不适合用来挖掘大型数据集。 

我 们打算对前面的“bank-data”数据作关联规则的分析。用“explorer”打开“bank-data-final.arff”后,切换到 “associate”选项卡。默认关联规则分析是用apriori算法,我们就用这个算法,但是点“choose”右边的文本框修改默认的参数,弹出的 窗口中点“more”可以看到各参数的说明。 

背景知识 

首先我们来温习一下apriori的有关知识。对于一条关联规则l->r,我们常用支持度(support)和置信度(confidence)来衡量它的重要性。规则的支持度是用来估计在一个购物篮中同时观察到l和r的概率p(l,r) ,而规则的置信度是估计购物栏中出现了l时也出会现r的条件概率p(r|l) 。关联规则的目标一般是产生支持度和置信度都较高的规则。 

有几个类似的度量代替置信度来衡量规则的关联程度,它们分别是 

lift(提升度?): p(l,r)/(p(l)p(r)) 

lift=1时表示l和r独立。这个数越大,越表明l和r存在在一个购物篮中不是偶然现象。 

leverage(不知道怎么翻译):p(l,r)-p(l)p(r) 

它和lift的含义差不多。leverage=0时l和r独立,leverage越大l和r的关系越密切。 

conviction(更不知道译了):p(l)p(!r)/p(l,!r) (!r表示r没有发生) 

conviction也是用来衡量l和r的独立性。从它和lift的关系(对r取反,代入lift公式后求倒数)可以看出,我们也希望这个值越大越好。 

值得注意的是,用lift和leverage作标准时,l和r是对称的,confidence和conviction则不然。 

参数设置 

现 在我们计划挖掘出支持度在10%到100%之间,并且lift值超过1.5且lift值排在前100位的那些关联规则。我们把 “lowerboundminsupport”和“upperboundminsupport”分别设为0.1和1,“metrictype”设为 lift,“minmetric”设为1.5,“numrules”设为100。其他选项保持默认即可。“ok”

之后在“explorer”中点击“start”开始运行算法,在右边窗口显示数据集摘要和挖掘结果。 

下面是挖掘出来的lift排前5的规则。 

best rules found: 

weka学习入门笔记

conv:(1.85) 

weka学习入门笔记

conv:(3.25) 

weka学习入门笔记

conv:(15.72) 

weka学习入门笔记

conv:(1.49) 

  5. age=52_max save_act=yes 151 ==> income=43759_max 76 conf:(0.5) < lift:(3.77)> lev:(0.09) [55] conv:(1.72) 

对于挖掘出的每条规则,weka列出了它们关联程度的四项指标。 

命令行方式 

我们也可以利用命令行来完成挖掘任务,在“simlpe cli”模块中输入如下格式的命令: 

java weka.associations.apriori options -t directory-path/bank-data-final.arff 

即可完成apriori算法。注意,“-t”参数后的文件路径中不能含有空格。 

在前面我们使用的option为 

-n 100 -t 1 -c 1.5 -d 0.05 -u 1.0 -m 0.1 -s -1.0 命令行中使用这些参数得到的结果和前面利用gui得到的一样。 

我们还可以加上“- i”参数,得到不同项数的频繁项集。我用的命令如下: 

java weka.associations.apriori -n 100 -t 1 -c 1.5 -d 0.05 -u 1.0 -m 0.1 -s -1.0 -i -t d:/weka/bank-data-final.arff 

3. 分类与回归 

weka把分类(classification)和回归(regression)都放在“classify”选项卡中,这是有原因的。 

在 这两个任务中,都有一个目标属性(输出变量)。我们希望根据一个样本(weka中称作实例)的一组特征(输入变量),对目标进行预测。为了实现这一目的, 我们需要有一个训练数据集,这个数据集中每个实例的输入和输出都是已知的。观察训练集中的实例,可以建立起预测的模型。有了这个模型,我们就可以新的输出 未知的实例进行预测了。衡量模型的好坏就在于预测的准确程度。 

在weka中,待预测的目标(输出)被称作class属性,这应该是来自分类任务的“类”。一般的,若class属性是分类型时我们的任务才叫分类,class属性是数值型时我们的任务叫回归。 

选择算法 

这一节中,我们使用c4.5决策树算法对bank-data建立起分类模型。 

我 们用“explorer”打开训练集“bank.arff”,观察一下它是不是按照前面的要求处理好了。切换到“classify”选项卡,点击 “choose”按钮后可以看到很多分类或者回归的算法分门别类的列在一个树型框里。3.5版的weka中,树型框下方有一个“filter...”按 钮,点击可以根据数据集的特性过滤掉不合适的算法。我们数据集的输入属性中有“binary”型(即只有两个类的分类型)和数值型的属性,而class变

量是“binary”的;于是我们勾选“binary attributes”“numeric attributes”和“binary class”。点“ok”后回到树形图,可以发现一些算法名称变红了,说明它们不能用。选择“trees”下的“j48”,这就是我们需要的c4.5算 法,还好它没有变红。 

点击“choose”右边的文本框,弹出新窗口为该算法设置各种参数。点“more”查看参数说明,点“capabilities”是查看算法适用范围。这里我们把参数保持默认。 

建模结果 

ok, 选上“cross-validation”并在“folds”框填上“10”。点“start”按钮开始让算法生成决策树模型。很快,用文本表示的一棵决 策树,以及对这个决策树的误差分析等等结果出现在右边的“classifier output”中。同时左下的“results list”出现了一个项目显示刚才的时间和算法名称。如果换一个模型或者换个参数,重新“start”一次,则“results

list”又会多出一项。 

我们看到“j48”算法交叉验证的结果之一为 

correctly classified instances 206 68.6667 % 

也就是说这个模型的准确度只有69%左右。也许我们需要对原属性进行处理,或者修改算法的参数来提高准确度。但这里我们不管它,继续用这个模型。 

weka学习入门笔记

这里我们解释一下“confusion matrix”的含义。 

=== confusion matrix === 

  a b <-- classified as 

  74 64 | a = yes 

  30 132 | b = no 

这 个矩阵是说,原本“pep”是“yes”的实例,有74个被正确的预测为“yes”,有64个错误的预测成了“no”;原本“pep”是“no”的实例, 有30个被错误的预测为“yes”,有132个正确的预测成了“no”。74+64+30+132 = 300是实例总数,而(74+132)/300 = 0.68667正好是正确分类的实例所占比例。这个矩阵对角线上的数字越大,说明预测得越好。 

模型应用 

现在我们要用生成的模型对那些待预测的数据集进行预测了,注意待预测数据集和训练用数据集各个属性的设置必须是一致的。weka中并没有直接提供把模型应用到带预测数据集上的方法,我们要采取间接的办法。 

在“test opion”中选择“supplied test set”,并且“set”成“bank-new.arff”文件。重新“start”一次。注意这次生成的模型没有 通过交叉验证来选择,“classifier

output”给出的误差分析也没有多少意义。这也是间接作预测带来的缺陷吧。 

现 在,右键点击“result list”中刚产生的那一项,选择“visualize classifier errors”。我们不去管新窗口中的图有什么含义,点“save”按钮,把结果保存成“bank-predicted.arff”。这个arff文件中 就有我们需要的预测结果。在“explorer”的“preprocess”选项卡中打开这个新文件,可以看到多了两个属性

“instance_number”和“predictedpep”。“instance_number”是指一个实例在原“bank- new.arff”文件中的位置,“predictedpep”就是模型预测的结果。点“edit”按钮或者在“arffviewer”模块中打开可以查 看这个数据集的内容。比如,我们对实例0的pep预测值为“yes”,对实例4的预测值为“no”。 

使用命令行(推荐) 

虽然使用图形界面查看结果和设置参数很方便,但是最直接最灵活的建模及应用的办法仍是使用命令行。 

打开“simple cli”模块,像上面那样使用“j48”算法的命令格式为: 

java weka.classifiers.trees.j48 -c 0.25 -m 2 -t directory-path/bank.arff -d directory-path /bank.model 

其中参数“ -c 0.25”和“-m 2”是和图形界面中所设的一样的。“-t ”后面跟着的是训练数据集的完整路径(包括目录和文件名),“-d ”后面跟着的是保存模型的完整路径。注意!这里我们可以把模型保存下来。 

输入上述命令后,所得到树模型和误差分析会在“simple cli”上方显示,可以复制下来保存在文本文件里。误差是把模型应用到训练集上给出的。 

把这个模型应用到“bank-new.arff”所用命令的格式为: 

java weka.classifiers.trees.j48 -p 9 -l directory-path/bank.model -t directory-path /bank-new.arff 

其中“-p 9”说的是模型中的class属性是第9个(也就是“pep”),“-l”后面是模型的完整路径,“-t”后面是待预测数据集的完整路径。 

输入上述命令后,在“simple cli”上方会有这样一些结果: 

0 yes 0.75 ? 

1 no 0.7272727272727273 ? 

2 yes 0.95 ? 

3 yes 0.8813559322033898 ? 

4 no 0.8421052631578947 ? 

... 

这 里的第一列就是我们提到过的“instance_number”,第二列就是刚才的“predictedpep”,第四列则是“bank- new.arff”中原来的“pep”值(这里都是“?”缺失值)。第三列对预测结果的置信度(confidence )。比如说对于实例0,我们有75%的把握说它的“pep”的值会是“yes”,对实例4我们有84.2%的把握说它的“pep”值会是“no”。

我们看到,使用命令行至少有两个好处。一个是可以把模型保存下来,这样有新的待预测数据出现时,不用每次重新建模,直接应用保存好的模型即可。另一个是对预测结果给出了置信度,我们可以有选择的采纳预测结果,例如,只考虑那些置信度在85%以上的结果。 

可惜,命令行仍不能保存交叉验证等方式选择过的模型,也不能将它们应用到待预测数据上。要实现这一目的,须用到“knowledgeflow”模块的“ predictionappender”。 

4. 聚类分析 

原理与实现 

聚 类分析中的“类”(cluster)和前面分类的“类”(class)是不同的,对cluster更加准确的翻译应该是“簇”。聚类的任务是把所有的实例 分配到若干的簇,使得同一个簇的实例聚集在一个簇中心的周围,它们之间距离的比较近;而不同簇实例之间的距离比较远。对于由数值型属性刻画的实例来说,这 个距离通常指欧氏距离。 

现在我们对前面的“bank data”作聚类分析,使用最常见的k均值(k-means)算法。下面我们简单描述一下k均值聚类的步骤。 

k均值算法首先随机的指定k个簇中心。然后:1)将每个实例分配到距它最近的簇中心,得到k个簇;2)计分别计算各簇中所有实例的均值,把它们作为各簇新的簇中心。重复1)和2),直到k个簇中心的位置都固定,簇的分配也固定。 

用 “explorer”打开刚才得到的“bank.arff”,并切换到“cluster”。点“choose”按钮选择“simplekmeans”,这 是weka中实现k均值的算法。点击旁边的文本框,修改“numclusters”为6,说明我们希望把这600条实例聚成6类,即k=6。下面的 “seed”参数是要设置一个随机种子,依此产生一个随机数,用来得到k均值算法中第一次给出的k个簇中心的位置。我们不妨暂时让它就为10。 

选 中“cluster mode”的“use training set”,点击“start”按钮,观察右边“clusterer output”给出的聚类结果。也可以在左下角“result list”中这次产生的结果上点右键,“view in separate window”在新窗口中浏览结果。 

结果解释 

首先我们注意到结果中有这么一行: 

within cluster sum of squared errors: 1604.7416693522332 

这是评价聚类好坏的标准,数值越小说明同一簇实例之间的距离越小。也许你得到的数值会不一样;实际上如果把“seed”参数改一下,得到的这个数值就可能会不一样。我们应该多尝试几个seed,并采纳这个数值最小的那个结果。例如我让“seed”取100,就得到 

within cluster sum of squared errors: 1555.6241507629218 

我该取后面这个。当然再尝试几个seed,这个数值可能会更小。 

接 下来“cluster centroids:”之后列出了各个簇中心的位置。对于数值型的属性,簇中心就是它的均值(mean);分类型的就是它的众数(mode), 也就是说这个属性上取值为众数值的实例最多。对于数值型的属性,还给出了它在各个簇里的标准差(std devs)。 

最后的“clustered instances”是各个簇中实例的数目及百分比。 

为 了观察可视化的聚类结果,我们在左下方“result list”列出的结果上右击,点“visualize cluster assignments”。弹出的窗口给出了各实例的散点图。最上方的两个框是选择横坐标和纵坐标,第二行的“color”是散点图着色的依据,默认是根 据不同的簇“cluster”给实例标上不同的颜色。 

可以在这里点“save”把聚类结果保存成arff文件。在这个新的arff文件中,“instance_number”属性表示某实例的编号,“cluster”属性表示聚类算法给出的该实例所在的簇。