为什么交叉熵能作为损失函数及其弥补了平方差损失什么缺陷

在很多二分类问题中,特别是正负样本不均衡的分类问题中,常使用交叉熵作为loss对模型的参数求梯度进行更新,那为何交叉熵能作为损失函数呢,我也是带着这个问题去找解析的。 以下仅为个人理解,如有不当地方,请读到的看客能指出。 我们都知道,各种机器学习模型都是模拟输入的分布,使得模型输出的分布尽量与训练数据一致,最直观的就是MSE(均方误差,Mean squared deviation), 直接就是输出
相关文章
相关标签/搜索