基于Bagging与boosting的算法2---AdaBoost

弱分类器—后一个在前一个的基础上提升 误差越小,权重越大 W_t(i)每个样本的权重 样本权重更新的计算—错误样本,增加权重。 错的才计算误差,正确的不计算误差 错误的,权重提高;但不代表每次都抽到错误的。 权重越大,被抽到的概率,越高 https://scikit-learn.org/stable/ 在api里面搜索:Adaboost.参数自己调。
相关文章
相关标签/搜索