Stochastic Gradient Descent ( 随机梯度下降 )

Stochastic Gradient Descent (SGD) ( 随机梯度下降( SGD ) ) 是一种简单但非常有效的方法,用于在诸如(线性)支持向量机和 逻辑回归 之类的凸损失函数下的线性分类器的辨别学习。即使 SGD 已经在机器学习社区中长期存在,但最近在大规模学习的背景下已经受到了相当多的关注。 SGD 已成功应用于文本分类和自然语言处理中经常遇到的大规模和稀疏机器学习问题。 SGD
相关文章
相关标签/搜索