XGBOOST—eXtreme Gradient Boosting算法原理

XGBOOST算法是由华盛顿大学陈天奇博士以GBDT和RandomForest为基础提出的,并开发了C++版本。该算法由于精度高、可并行化处理和可移植性,被广泛应用于各个领域, 这也是Kaggle竞赛者最常用的方法之一。 假设样本集D = {(xi, yi)...} i = 1、...n XGBOOST预测函数可表示为 我们使用分部加法,可将此式变换为 其中K代表迭代K轮;方程左侧为预测值;映射f
相关文章
相关标签/搜索