决策树和随机森林(下)

上次探究了深度对决策树的影响,发现深度越大,容易发生过拟合 没错今天来说所谓的剪枝和随机森林 剪枝总体思路: 由完全树T0开始,剪枝部分结点得到T1,再次剪 枝部分结点得到T2…直到仅剩树根的树Tk; 在验证数据集上对这k个树分别评价,选择损失 函数最小的树Tα 首先了解上面是剪枝系数 但是主要用随机森林算法来防止过拟合,也是决策树的加强版 那什么是随机森林,就是多棵决策树组成,对样本和特征随便抽
相关文章
相关标签/搜索