ML in Action Note - Day 2 - Decision Tree

第3章:Decision Tree 决策树:根据不同特征建立分支 优点:计算复杂度不高,输出结果容易理解,对中间值的缺失不敏感,可以处理不相关特征数据。 缺点:可能会产生overfitting。   P1:划分数据集,创建决策树 信息增益:划分数据集前后信息发生的变化称为信息增益。 熵entropy:集合信息的度量方式就称为熵。熵定义为信息的期望值。 如果袋分类的事务可能划分在多个分类中,则的信息
相关文章
相关标签/搜索