集成学习(2)--Python

上节课咱们介绍了AdaBoost这一算法,其基本思想就是经过集中关注被已有分类器分类错误的那些数据来训练新的分类器。 在上一节中估计每一个分类器偏差: ϵt=P(ht(x)≠f(x))=分类错误的样本数目所有样本数目 而后根据这一偏差来计算每一个分类器的权重 α=12ln(1−ϵϵ) 计算alpha值后,能够对权重向量进行跟新,以使得错分类样本权重加大,正确分类的样本权重下降。 权重更新公示: D
相关文章
相关标签/搜索