本次共进行了9组实验,使用了weka安装目录data文件夹下的contact-lenses.arff数据。算法
ToolsàArffViewer,打开contact-lenses,能够看到实验数据contact-lenses共有24条记录,5个属性值。具体内容以下:ide
weka数据集格式arff测试
arff标准数据集简介ui
weka的数据文件后缀为arff(Attribute-Relation File Format,即属性关系文件格式),arff文件分为注释、关系名、属性名、数据域几大部分,注释用百分号开头%,关系名用@relation申明,属性用@attribute什么,数据域用@data开头,看这个示例数据集(安装weka后,可在weka的安装目录/data下找到weather.numeric.arff): spa
%weather dataset @relation weather @attribute outlook {sunny, overcast, rainy} @attribute temperature numeric @attribute humidity numeric @attribute windy {TRUE, FALSE} @attribute play {yes, no} @data sunny,85,85,FALSE,no sunny,80,90,TRUE,no overcast,83,86,FALSE,yes rainy,70,96,FALSE,yes rainy,68,80,FALSE,yes rainy,65,70,TRUE,no overcast,64,65,TRUE,yes sunny,72,95,FALSE,no sunny,69,70,FALSE,yes rainy,75,80,FALSE,yes sunny,75,70,TRUE,yes overcast,72,90,TRUE,yes overcast,81,75,FALSE,yes rainy,71,91,TRUE,no
当数据是数值型,在属性名的后面加numeric,若是是离散值(枚举值),就用一个大括号将值域列出来。@data下一行后为数据记录,数据为矩阵形式,即每个的数据元素个数相等,如有缺失值,就用问号?表示。orm
arff稀疏数据集 排序
咱们作关联规则挖掘,好比购物篮分析,咱们的购物清单数据确定是至关稀疏的,超市的商品种类有上10000种,而每一个人买东西只会买几种商品,这样若是用矩阵形式表示数据显然浪费了不少的存储空间,咱们须要用稀疏数据表示,看咱们的购物清单示例(basket.txt): 索引
freshmeat dairy confectionery freshmeat confectionery cannedveg frozenmeal beer fish dairy wine freshmeat wine fish fruitveg softdrink beer fruitveg frozenmeal fruitveg fish fruitveg freshmeat dairy cannedveg wine fish fruitveg fish dairy cannedmeat frozenmeal fish
数据集的每一行表示一个去重后的购物清单,进行关联规则挖掘时,咱们能够先把商品名字映射为id号,挖掘的过程只有id号就是了,到规则挖掘出来以后再转回商品名就是了,retail.txt是一个转化为id号的零售数据集,数据集的前面几行以下: ip
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 38 39 47 48 38 39 48 49 50 51 52 53 54 55 56 57 58 32 41 59 60 61 62 3 39 48 63 64 65 66 67 68 32 69
这个数据集的商品有16469个,一个购物的商品数目远少于商品中数目,所以要用稀疏数据表,weka支持稀疏数据表示,但我在运用apriori算法时有问题,先看一下weka的稀疏数据要求:稀疏数据和标准数据的其余部分都同样,惟一不一样就是@data后的数据记录,示例以下(basket.arff): ci
@relation 'basket' @attribute fruitveg {F, T} @attribute freshmeat {F, T} @attribute dairy {F, T} @attribute cannedveg {F, T} @attribute cannedmeat {F, T} @attribute frozenmeal {F, T} @attribute beer {F, T} @attribute wine {F, T} @attribute softdrink {F, T} @attribute fish {F, T} @attribute confectionery {F, T} @data {1 T, 2 T, 10 T} {1 T, 10 T} {3 T, 5 T, 6 T, 9 T} {2 T, 7 T} {1 T, 7 T, 9 T} {0 T, 8 T} {6 T} {0 T, 5 T} {0 T, 9 T} {0 T, 1 T, 2 T, 3 T, 7 T, 9 T} {0 T, 9 T} {2 T, 4 T, 5 T, 9 T}
能够看到
freshmeat dairy confectionery freshmeat confectionery
表示为了:
{1 T, 2 T, 10 T} {1 T, 10 T
稀疏数据的表示格式为:{<属性列号><空格><值>,...,<属性列号><空格><值>},注意每条记录要用大括号,属性列号不是id号,属性列号是从0开始的,即第一个@attribute 后面的属性是第0个属性,T表示数据存在。
规则挖取
咱们先用标准数据集normalBasket.arff[1]试一下,weka的apriori算法和FPGrowth算法。
一、安装好weka后,打开选择Explorer
二、打开文件
三、选择关联规则挖掘,选择算法
四、设置参数
参数主要是选择支持度(lowerBoundMinSupport),规则评价机制metriType(见上一篇)及对应的最小值,参数设置说明以下[2]:
1. car 若是设为真,则会挖掘类关联规则而不是全局关联规则。 2. classindex 类属性索引。若是设置为-1,最后的属性被当作类属性。 3. delta 以此数值为迭代递减单位。不断减少支持度直至达到最小支持度或产生了知足数量要求的规则。 4. lowerBoundMinSupport 最小支持度下界。 5. metricType 度量类型。设置对规则进行排序的度量依据。能够是:置信度(类关联规则只能用置信度挖掘),提高度(lift),杠杆率(leverage),确信度(conviction)。 在 Weka中设置了几个相似置信度(confidence)的度量来衡量规则的关联程度,它们分别是: a) Lift : P(A,B)/(P(A)P(B)) Lift=1时表示A和B独立。这个数越大(>1),越代表A和B存在于一个购物篮中不是偶然现象,有较强的关联度. b) Leverage :P(A,B)-P(A)P(B)Leverage=0时A和B独立,Leverage越大A和B的关系越密切 c) Conviction:P(A)P(!B)/P(A,!B) (!B表示B没有发生) Conviction也是用来衡量A和B的独立性。从它和lift的关系(对B取反,代入Lift公式后求倒数)能够看出,这个值越大, A、B越关联。 6. minMtric 度量的最小值。 7. numRules 要发现的规则数。 8. outputItemSets 若是设置为真,会在结果中输出项集。 9. removeAllMissingCols 移除所有为缺省值的列。 10. significanceLevel 重要程度。重要性测试(仅用于置信度)。 11. upperBoundMinSupport 最小支持度上界。 从这个值开始迭代减少最小支持度。 12. verbose 若是设置为真,则算法会以冗余模式运行。
设置好参数后点击start运行能够看到Apriori的运行结果:
FPGrowth运行的结果是同样的:
结合实验结果阐释下列12个参数的含义
1. car 若是设为真,则会挖掘类关联规则而不是全局关联规则。
2. classindex 类属性索引。若是设置为-1,最后的属性被当作类属性。
3. delta 以此数值为迭代递减单位。不断减少支持度直至达到最小支持度或产生了知足数量要求的规则。
4. lowerBoundMinSupport 最小支持度下界。
5. metricType 度量类型。设置对规则进行排序的度量依据。能够是:置信度(类关联规则只能用置信度挖掘),提高度(lift),杠杆率(leverage),确信度(conviction)。
在 Weka中设置了几个相似置信度(confidence)的度量来衡量规则的关联程度,它们分别是:
a) Lift : P(A,B)/(P(A)P(B)) Lift=1时表示A和B独立。这个数越大(>1),越代表A和B存在于一个购物篮中不是偶然现象,有较强的关联度.
b) Leverage :P(A,B)-P(A)P(B)
Leverage=0时A和B独立,Leverage越大A和B的关系越密切
c) Conviction:P(A)P(!B)/P(A,!B) (!B表示B没有发生) Conviction也是用来衡量A和B的独立性。从它和lift的关系(对B取反,代入Lift公式后求倒数)能够看出,这个值越大, A、B越关联。
6. minMtric 度量的最小值。
7. numRules 要发现的规则数。
8. outputItemSets 若是设置为真,会在结果中输出项集。
9. removeAllMissingCols 移除所有为缺省值的列。
10. significanceLevel 重要程度。重要性测试(仅用于置信度)。
11. upperBoundMinSupport 最小支持度上界。 从这个值开始迭代减少最小支持度。
12. verbose 若是设置为真,则算法会以冗余模式运行。
=== Run information === // 实验运行信息
Scheme: weka.associations.Apriori -I -N 10 -T 0 -C 0.9 -D 0.05 -U 1.0 -M 0.5 -S -1.0 -c -1
Relation: contact-lenses //数据的名称 contact-lenses
Instances: 24 //数据的记录数 24
Attributes: 5 //属性数目 5以及各属性名称
age
spectacle-prescrip
astigmatism
tear-prod-rate
contact-lenses
=== Associator model (full training set) ===
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% scheme -所选的关联规则挖掘方案: Apriori算法
% 算法的参数设置:-I -N 10 -T 0 -C 0.9 -D 0.05 -U 1.0 -M 0.5 -S -1.0 -c -1 ;
% 各参数依次表示:
% I - 输出项集,若设为false则该值缺省;
% N 10 - 规则数为10;
% T 0 – 度量单位选为置信度,(T1-提高度,T2杠杆率,T3确信度);
% C 0.9 – 度量的最小值为0.9;
% D 0.05 - 递减迭代值为0.05;
% U 1.0 - 最小支持度上界为1.0;
% M 0.5 - 最小支持度下届设为0.5;
% S -1.0 - 重要程度为-1.0;
% c -1 - 类索引为-1输出项集设为真
% (因为car, removeAllMissingCols, verbose都保持为默认值False,所以在结果的参数设置为缺省,若设为True,则会在结果的参数设置信息中分别表示为A, R,V)
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
Apriori // Apriori算法运行结果
=======
Minimum support: 0.5 (12 instances) //最小支持度0.5,即最少须要12个实例
Minimum metric <confidence>: 0.9 //最小度量<置信度>: 0.9
Number of cycles performed: 10 //进行了10轮搜索
Generated sets of large itemsets: //生成的频繁项集
Size of set of large itemsets L(1): 7 //频繁1项集:7个
Large Itemsets L(1): //频繁1项集(outputItemSets设为True, 所以下面会具体列出)
spectacle-prescrip=myope 12
spectacle-prescrip=hypermetrope 12
astigmatism=no 12
astigmatism=yes 12
tear-prod-rate=reduced 12
tear-prod-rate=normal 12
contact-lenses=none 15
%%%%%%%%%%%%%%%%%%%%%%%%
在上面所示数据界面中,分别点击标签spectacle-prescrip,astigmatism,tear-prod-rate和contact-lenses,该列的值会自动进行分类排序,能够很方便的对上面结果进行。点击age标签,其值按pre-presbiopic、presbiopic和young分类排序,能够看到各属性值的记录数均为8<12,不知足最小支持度,所以age属性的全部取值都没有列在上面结果中。
%%%%%%%%%%%%%%%%%%%%%%%%
Size of set of large itemsets L(2): 1 //频繁2项集: 1个
Large Itemsets L(2):
tear-prod-rate=reduced contact-lenses=none 12
//tear-prod-rate取值为reduced且 contact-lenses取值为none 的记录数共有12个
Best rules found: //最佳关联规则
1. tear-prod-rate=reduced 12 ==> contact-lenses=none 12 conf:(1)
// 若tear-prod-rate取值为reduced能够推出 contact-lenses的取值为none,该关联规则置信度为100%
1. 实验中,若其它参数保持为默认值,将最小支持度下界设为0.8,则运行结果会显示”No large itemsets and rules found!”,即找不到知足条件的关联规则。
2. 若其它参数保持为默认值,将最小支持度下界设为0.25,上界设为0.8,度量选为置信度,最小值为0.8,则运行结果找到:频繁1项集10个,频繁2项集18个,频繁3项集4个,找到的最佳关联规则为:
1. tear-prod-rate=reduced 12 ==> contact-lenses=none 12 conf:(1)
2. spectacle-prescrip=myope tear-prod-rate=reduced 6 ==> contact-lenses=none 6 conf:(1)
3. spectacle-prescrip=hypermetrope tear-prod-rate=reduced 6 ==> contact-lenses=none 6 conf:(1)
4. astigmatism=no tear-prod-rate=reduced 6 ==> contact-lenses=none 6 conf:(1)
5. astigmatism=yes tear-prod-rate=reduced 6 ==> contact-lenses=none 6 conf:(1)
6. spectacle-prescrip=myope contact-lenses=none 7 ==> tear-prod-rate=reduced 6 conf:(0.86)
7. astigmatism=no contact-lenses=none 7 ==> tear-prod-rate=reduced 6 conf:(0.86)
8. contact-lenses=none 15 ==> tear-prod-rate=reduced 12 conf:(0.8)
3. 若其它参数保持为默认值,将最小支持度下界设为0.25,上界设为0.8,度量选为提高度(Lift :P(A,B)/(P(A)P(B))),最小值为1.1,则运行结果找到10条最佳关联规则,前3条以下:
1. tear-prod-rate=reduced 12 ==> spectacle-prescrip=myope contact-lenses=none 6 conf:(0.5) < lift:(1.71)> lev:(0.1) [2] conv:(1.21)
2. spectacle-prescrip=myope contact-lenses=none 7 ==> tear-prod-rate=reduced 6 conf:(0.86) < lift:(1.71)> lev:(0.1) [2] conv:(1.75)
3. tear-prod-rate=reduced 12 ==> astigmatism=no contact-lenses=none 6 conf:(0.5) < lift:(1.71)> lev:(0.1) [2] conv:(1.21)
4. 若其它参数保持为默认值,将最小支持度下界设为0.25,上界设为0.8,度量选为杠杆率(Leverage:P(A,B)-P(A)P(B),在下面第一条规则中,[4]表示知足lev:(0.19)的实例数目),最小值为0.1,则运行结果找到6条最佳关联规则,前3条以下:
1. tear-prod-rate=reduced 12 ==> contact-lenses=none 12 conf:(1) lift:(1.6) < lev:(0.19) [4]> conv:(4.5)
2. contact-lenses=none 15 ==> tear-prod-rate=reduced 12 conf:(0.8) lift:(1.6) < lev:(0.19) [4]> conv:(1.88)
3. tear-prod-rate=reduced 12 ==> spectacle-prescrip=myope contact-lenses=none 6
5. 若其它参数保持为默认值,将最小支持度下界设为0.25,上界设为0.8,度量选为确信度(Conviction:P(A)P(!B)/P(A,!B)),最小值为1.1,则运行结果找到10条最佳关联规则,前3条以下:
1. tear-prod-rate=reduced 12 ==> contact-lenses=none 12 conf:(1) lift:(1.6) lev:(0.19) [4] < conv:(4.5)>
2. spectacle-prescrip=myope tear-prod-rate=reduced 6 ==> contact-lenses=none 6 conf:(1) lift:(1.6) lev:(0.09) [2] < conv:(2.25)>
3. spectacle-prescrip=hypermetrope tear-prod-rate=reduced 6 ==> contact-lenses=none 6 conf:(1) lift:(1.6) lev:(0.09) [2] < conv:(2.25)>