Classification Tree

ID3->C4.5->C5.0 Decision Tree theory 1、所有的数据放在根节点 2、分堆 注意事项: 1、属性选择的结果是目标变量偏向于一个值 2、砍树。(防止过拟合) 1、越倾向于1越平均化;倾向于0越偏某一类。 交叉熵在0-1之间。 注意事项 1、决策树和规则不一样。规则是提取的精华。决策树是有繁琐的规则在的。 2、分类规则的算法和决策树不一样。WEKA提供。modeler
相关文章
相关标签/搜索