FocalLoss学习一下

FocalLoss FocalLoss是对分类交叉熵损失函数的优化 为什么能做难负样本挖掘呢? γ>0,会减少相对于好区分样本(就是负样本,也就是背景比较多的样本)的损失,而将重心转移到难区分的,而且比较容易误分类的样本(也就是正样本:背景不会占太多,或者叫难负样本:难区分的负样本,一般数据集中它们的数量少)上面来。下面来具体理解下。 当预测概率值在0.6-1之间时,不管是预测物体还是背景,置信度
相关文章
相关标签/搜索