ML小白打卡第二天

LR 二分类逻辑回归 目前不能再简化了。那这里的w和b到底如何求出来呢? 这是优化算法的主要职责。 逻辑回归没法通过导数设为0求解。这时候可以考虑迭代式的优化算法。 其中一个最经典的迭代式算法叫做梯度下降法。 这种算法的核心是通过不断迭代的方式来求解函数的最优解。 对于梯度下降法,有一个重要的参数η叫做学习率(learning rate),它控制着每一次迭代的程度。学习率越大,学习速度会越快; 学
相关文章
相关标签/搜索