机器学习中的损失函数

开篇 很多时候,机器学习的算法是可以按照损失函数来划分的,像我以前博客中提到的LR和SVM的区别,首先它们的损失函数就是不一样的。这边我还是先整理一部分损失函数,近期会逐步的完善。 交叉熵损失函数 交叉熵就是用来判定实际的输出与期望的输出的接近程度 关于熵的一些概念,这边不多加赘述,大家可以参考我的博客 这边的话,其实最开始的主要目的就是衡量两个概率分布的距离,如何是衡量两个分布的距离呢,这里需要
相关文章
相关标签/搜索