【机器学习】 前向分布算法与GBDT算法梳理

1.前向分布算法  基本思想:每次只学习一个基函数及系数,逐步逼近最优解。html 以下所示:git 其中  为基函数,为基函数系数,为基函数的参数,这样只须要给定训练集与损失函数github 就能够利用最小化损失函数的原理进行学习,这样每次新一轮的学习只须要学习一个基函数的参数与对应的系数。算法 一个栗子:小明有100个苹果,小红第一次猜1*50个,剩余50个没猜对(残差),下一次小红猜有1*5
相关文章
相关标签/搜索