fast-r-cnn论文中个为什么使用smooth_L1 (x),smooth_l1是什么?

先把论文中这部分描述摘抄过来,如下图所示:   假设我们不适用smooth_L1,考虑L2函数   其梯度为 那么会出现一个原文描述的问题,when the regression targets are unbounded,既x很大的时候,会发生梯度爆炸,再考虑L1函数 此时会出现另外一个问题,当x变化很小的时候,梯度依旧很大,此时函数很有可能无法收敛(除非你控制学习率降低的更多,但是这样手工智能
相关文章
相关标签/搜索