神经网络-损失函数

先上结论:在使用sigmoid做为激活函数的时候,cross entropy相比于quadratic cost function,具备收敛速度快,更容易得到全局最优的特色;使用softmax做为激活函数,log-likelihood做为损失函数,不存在收敛慢的缺点。 对于损失函数的收敛特性,咱们指望是当偏差越大的时候,收敛(学习)速度应该越快。html 1、quadratic + sigmoid
相关文章
相关标签/搜索