机器学习基础 - [第三章:逻辑回归](4)逻辑回归模型的代价函数简化表示与梯度下降

1、多个训练样本的代价函数简化表示 前一篇文章中,我们我们已经知道了单训练样本 c o s t ( h θ ( x ) , y ) cost(h_{\theta}(x),y) cost(hθ​(x),y)的分段表示,实际上,它还可以写成更紧凑的形式: c o s t ( h θ ( x ) , y ) = − y l o g ( h θ ( x ) ) − ( 1 − y ) l o g ( 1
相关文章
相关标签/搜索