集成学习与SMOTE

一、集成学习 (1)EasyEnsemble算法:通常效果还不错 思想:单一的容易丢失,那么就多来几次,尽量将样本都用上。 对于多数样本,通过有放回抽样,形成一份子集。然后与少数样本合并训练一个模型(C1)。重复N次操作,得到N个模型(CN),最终对N个模型的结果取平均。 注意:C1到CN可以并行。 (2)BalanceCascade算法:效果也行 对于多数样本,有效的选择一些样本,形成一份子集。
相关文章
相关标签/搜索