多绚烂的花,多美妙的季节;函数
没有一朵花,能留住它的季节。spa
我也是同样,不停地追寻,blog
我终究要失去的io
回到logistic回归最大似然函数这里,如今咱们用牛顿法来最大化这个对数似然函数。变量
牛顿法本是用来求函数零点的一个方法,一个函数的零点就是指使这个函数等于零那个自变量的取值点。 牛顿法的更新公式为, $$ \begin{equation} \theta :=\theta-\frac{f(\theta)}{f^{\prime}(\theta)} \end{equation} $$ 这个更新公式有一个很是天然的解释,就是在当前近似零点处的切线的零点做为下一轮零点的更好的近似。而后不停重复这个过程来不断的逼近真实的零点。这个过程以下图,方法
牛顿法是求零点的一个方法,如今求一个函数机智的就是求函数导数的零点,所以就有以下的牛顿法求极值点更新公式, $$ \begin{equation} \theta :=\theta-\frac{\ell^{\prime}(\theta)}{\ell^{\prime \prime}(\theta)} \end{equation} $$im
如今咱们在logistic回归中要最大化的那个参数是一个向量。所以牛顿法推广到高维情形(又叫Newton-Raphson法),就有, $$ \begin{equation} \theta :=\theta-H^{-1} \nabla_{\theta} \ell(\theta) \end{equation} $$ 其中,函数 $\ell(\theta) $ 的Hessian矩阵$ H$ 的$ (i,j)$ 元素 定义为, $$ \begin{equation} H_{i j}=\frac{\partial^{2} \ell(\theta)}{\partial \theta_{i} \partial \theta_{j}} \end{equation} $$ 牛顿法迭代较少轮数下就能很快收敛,但在每一轮牛顿法通常要比梯度降低法的代价要高得多,由于他要涉及到求阶数为特征个数的矩阵逆(特征个数少时,仍是很快的)。世上安得两全法。img
刚用牛顿法来求logistic对数似然函数最大值点,相应的方法就叫费希尔得分(Fisher scoring.)。co