pytorch中的CrossEntropyLoss()函数

分类问题中,交叉熵函数是比较常用也是比较基础的损失函数,原来就是了解,但一直搞不懂他是怎么来的?为什么交叉熵能够表征真实样本标签和预测概率之间的差值?趁着这次学习把这些概念系统学习了一下。 首先说起交叉熵,脑子里就会出现这个东西:          随后我们脑子里可能还会出现Sigmoid()这个函数:         pytorch中的CrossEntropyLoss()函数实际就是先把输出结果
相关文章
相关标签/搜索