logit,softmax和cross entropy

在多分类问题中: 笔者理解logit是一个催化剂的作用,它扩大了数据之间的差异性,使一些由于值域有上下限的问题数据之间的差别更大了。之后用softmax函数将扩大后的数据再映射到概率区间(0,1),输出概率最大的类别为预测值,再用cross entropy函数计算损失值。 附上公式: logit函数: softmax: cross enropy:yi是正确解的标签,pj是该标签下预测出来的概率 流
相关文章
相关标签/搜索