大数据梯度下降(斯坦福machine learning week 10)

这对于现代的数据集其实是很现实的。比如对于美国的人口普查数据集来说美国有3亿人口,我们通常都能得到上亿条的数据。 如果我们看一下很受欢迎的网站的浏览量,我们也很容易得到上亿条的记录。 假设我们要训练一个线性回归模型或者是逻辑回归模型,这是梯度下降的规则: 当你在计算梯度下降的时候,这里的m是一个上亿的值时,你需要通过计算上亿个数的导数项的和来计算仅仅一步的梯度下降。 所以这就是大数据梯度下降的背景
相关文章
相关标签/搜索