在线学习算法FTRL

优化算法中的LBFGS解法以及GD等解法,是对一批样本进行一次求解,得到一个全局最优解。      实际的互联网广告应用需要的是快速地进行model的更新。为了保证快速的更新,训练样本是一条一条地过来的,每来一个样本,model的参数对这个样本进行一次迭代,从而保证了model的及时更新,这种方法叫做OGD(Online gradient descent)。 当然这会有误差,所以为了避免这种误差,
相关文章
相关标签/搜索