神经网络经典损失函数-交叉熵和均方偏差

在神经网络中,如何判断一个输出向量和指望的向量有多接近呢?交叉熵(cross entropy)是经常使用的方法之一,刻画了两个几率分布之间的距离,是分类问题中使用较多的一种损失函数。 给定两个几率分布p和q,经过q来表示p的交叉熵为: 如何将神经网络前向传播获得的结果也变成几率分布,比较经常使用的方法为Softmax回归。 Softmax回归自己能够做为一个学习算法来优化分类结果,但在Tensor
相关文章
相关标签/搜索