使用随机森林计算特征重要度

随机森林包含不少决策树,决策树中的每个节点是某一个特征的条件。这些条件用来将数据集分红两部分,使得每一部分的响应值归为同一个集合。最优条件的选择依据是不纯度。不纯度在分类中一般为Gini不纯度或信息增益/信息熵,对于回归问题来讲是方差。 下面是两种计算特征重要度的方法: 1 基于sklearn的实现python from sklearn.datasets import load_boston fr
相关文章
相关标签/搜索