集成学习从放弃到再入门之XGBOOST

牛顿法 牛顿法最初是通过迭代xn+1=xn-f(xn)/f’(xn)用来求函数的零点值f(x)=0,在优化问题中即求解导函数的零点值:迭代xn+1=xn-f’(xn)/f”(xn)使f’(x)=0 GBDT和XGBOOST 机器学习算法中GBDT和XGBOOST的区别有哪些? 1. 传统GBDT以CART作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项
相关文章
相关标签/搜索