简单的交叉熵损失函数,你真的懂了吗?

个人网站:红色石头的机器学习之路 CSDN博客:红色石头的专栏 知乎:红色石头 微博:RedstoneWill的微博 GitHub:RedstoneWill的GitHub 微信公众号:AI有道(ID:redstonewill) 说起交叉熵损失函数「Cross Entropy Loss」,脑海中立马浮现出它的公式: L=−[ylog y^+(1−y)log (1−y^)] L = − [ y l o
相关文章
相关标签/搜索