优化中的subgradient方法

版权声明:本文为博主原创文章,未经博主允许不得转载。 目录(?)[+] 哎,刚刚submit上paper比较心虚啊,无心学习,还是好好码码文字吧。 subgradient介绍 subgradient中文名叫次梯度,和梯度一样,完全可以多放梯度使用,至于为什么叫子梯度,是因为有一些凸函数是不可导的,没法用梯度,所以subgradient就在这里使用了。注意到,子梯度也是求解凸函数的,只是凸函数不是处
相关文章
相关标签/搜索